JP4305996B2 - 画像処理装置および方法、並びに記録媒体 - Google Patents

画像処理装置および方法、並びに記録媒体 Download PDF

Info

Publication number
JP4305996B2
JP4305996B2 JP06845599A JP6845599A JP4305996B2 JP 4305996 B2 JP4305996 B2 JP 4305996B2 JP 06845599 A JP06845599 A JP 06845599A JP 6845599 A JP6845599 A JP 6845599A JP 4305996 B2 JP4305996 B2 JP 4305996B2
Authority
JP
Japan
Prior art keywords
subject
image data
orientation
predetermined range
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP06845599A
Other languages
English (en)
Other versions
JP2000268180A (ja
Inventor
哲二郎 近藤
大介 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP06845599A priority Critical patent/JP4305996B2/ja
Publication of JP2000268180A publication Critical patent/JP2000268180A/ja
Application granted granted Critical
Publication of JP4305996B2 publication Critical patent/JP4305996B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置および方法、並びに記録媒体に関し、特に、被写体の向きを迅速かつ簡単に求めることができるようにした画像処理装置および方法、並びに記録媒体に関する。
【0002】
【従来の技術】
例えば、テレビ会議システムなどにおいて、使用者の顔の向きを検出すれば、使用者の顔の向きに対応して、その方向のテレビ会議の出席者に対して、音量を大きくしたり、画像を切り替えたりすることができる。
【0003】
このように、人の顔の向きを検出するには、テンプレートマッチングがよく用いられる。このテンプレートマッチングによる方法は、所定の方向に向いている人の顔の画像をテンプレートとして予め登録しておくものであり、人の現在の画像とテンプレートとを比較することで、使用者の顔の向きが判定される。
【0004】
【発明が解決しようとする課題】
しかしながら、テンプレートマッチングによる方法は、確実に、人の向きを検出することが可能であるが、計算量が多くなり、検出に時間がかかる課題があった。
【0005】
さらにまた、検出する画像によって、テンプレートを変更する必要があり、リファレンスとして記憶しておくためのメモリの容量が大きくなる。
【0006】
さらに、角度を検出する場合には、角度毎のテンプレートが必要となる。さらに、照明などに起因して輝度が変化したり、被写体の位置に起因して画像が回転したり、拡大または縮小したりすると、それぞれに対応するテンプレートが必要となる。従って、テンプレートマッチングは、物体の方向を検出するのには、あまり適していない方法ということができる。
【0007】
本発明はこのような状況に鑑みてなされたものであり、簡単な構成で、かつ、迅速に、被写体の向きを検出することができるようにするものである。
【0008】
【課題を解決するための手段】
本発明の画像処理装置は、被写体を複数の撮像部により撮像して得られた被写体の複数の画像データの供給を受ける入力手段と、複数の画像データのそれぞれから被写体の向きを検出する検出手段と、複数の画像データのそれぞれから検出した被写体の向きが一致しているか否かを判定する第1の判定手段と、複数の画像データのそれぞれから検出した被写体の向きが一致していない場合、複数の画像データのそれぞれから検出した被写体の向きが所定の範囲内であるか否かを判定する第2の判定手段と、複数の画像データのそれぞれから検出した被写体の向きの何れかが所定の範囲内である場合、所定の範囲内である向きを被写体の向きとして出力する出力手段とを含むことを特徴とする。
【0009】
本発明の画像処理方法は、入力手段が、複数の画像データの供給を受ける入力ステップと、供給された複数の画像データのそれぞれから、検出手段が被写体の向きを検出する検出ステップと、第1の判定手段が、被写体の向きが一致しているか否かを判定する第1の判定ステップと、複数の画像データのそれぞれから検出した被写体の向きが一致していない場合、第2の判定手段が、被写体の向きが所定の範囲内であるか否かを判定する第2の判定ステップと、複数の画像データのそれぞれから検出した被写体の向きの何れかが所定の範囲内である場合、出力手段が、所定の範囲内である向きを被写体の向きとして出力する出力ステップと含むことを特徴とする。
【0010】
本発明の記録媒体のプログラムは、被写体を複数の撮像部により撮像して得られた被写体の複数の画像データの供給を受ける入力ステップと、複数の画像データのそれぞれから被写体の向きを検出する検出ステップと、複数の画像データのそれぞれから検出した被写体の向きが一致しているか否かを判定する第1の判定ステップと、複数の画像データのそれぞれから検出した被写体の向きが一致していない場合、複数の画像データのそれぞれから検出した被写体の向きが所定の範囲内であるか否かを判定する第2の判定ステップと、複数の画像データのそれぞれから検出した被写体の向きの何れかが所定の範囲内である場合、所定の範囲内である向きを被写体の向きとして出力する出力ステップとを含むことを特徴とする処理をコンピュータに実行させることを特徴とする。
【0011】
本発明の画像処理装置、画像処理方法、および記録媒体のプログラムにおいては、被写体を複数の撮像部により撮像して得られた被写体の複数の画像データの供給を受け、複数の画像データのそれぞれから被写体の向きが検出され、複数の画像データのそれぞれから検出した前記被写体の向きが一致しているか否かが判定され、複数の画像データのそれぞれから検出した被写体の向きが一致していない場合、複数の画像データのそれぞれから検出した被写体の向きが所定の範囲内であるか否かが判定され、複数の画像データのそれぞれから検出した被写体の向きの何れかが所定の範囲内である場合、所定の範囲内である向きが被写体の向きとして出力される。
【0012】
【発明の実施の形態】
図1は、本発明を適用した画像処理装置の構成例を表している。この構成例においては、ビデオカメラ1により撮像された被写体の画像が演算装置2に供給され、被写体の向きが演算されるようになされている。演算装置2は、例えばパーソナルコンピュータなどにより構成される。
【0013】
次に、演算装置2が行う処理について、図2のフローチャートを参照して説明する。最初にステップS1において、ビデオカメラ1により被写体が撮像される。ビデオカメラ1により撮像された被写体の画像データは、演算装置2に供給される。演算装置2は、ステップS2において、入力された画像データから、被写体の髪の毛の領域と顔の領域を抽出する処理を実行する。いま、ここでは簡単のため、髪の毛の領域を黒色の画素の領域として抽出し、また、顔の領域を肌色の画素の領域として抽出するものとする。この黒色領域抽出処理と肌色領域抽出処理の詳細は、図3と図4のフローチャートにそれぞれ示されている。
【0014】
黒色領域を抽出する場合、図3に示すように、ステップS21において、1フレーム分の画像がn×mの画素毎のブロックにブロック化される。図5は、簡単のため、4×4画素単位でブロック化が行われている例を表している。
【0015】
次に、ステップS22において、黒色のブロックの数を表す変数Nに0が初期設定される。ステップS23において、演算装置2は、所定の1つのブロックを抽出し、そのブロック内の1つの画素の色差データU,Vの値が約128であり、かつ、輝度成分Yの値が予め設定されている値(閾値)Y1と等しいか、それより小さい値であるか否かを判定する。これらの条件が満足される場合、その画素は黒色の画素(髪の毛の画素)であると認識することができる。そこで、これらの条件が満足される場合には、ステップS24において、変数Nが1だけインクリメントされる。これらの条件が満足されない場合には、変数Nの値はインクリメントされない。
【0016】
次に、ステップS25において、そのブロック内の全ての画素についての判定が終了したか否かが判定され、まだ判定が終了していない画素が存在する場合には、ステップS23に戻り、それ以降の処理が繰り返し実行される。
【0017】
ステップS25において、そのブロック内の全ての画素(図5の例では、16個の画素)についての判定処理が終了したと判定された場合、ステップS26に進み、変数Nの値(ブロック内の黒い画素の数)が、予め設定されている閾値N1以上であるか否かが判定される。値Nが閾値N1以上である場合、ステップS27において、そのブロックは黒色領域のブロックであるとして、黒色領域であることを示すフラグが設定される。このように、ブロック内の全ての画素が黒色でないにしても、そのブロック内の多くの画素が黒色である場合には、そのブロックは、全て黒色の領域のブロックであるとされる。このようにすることで、孤立点が発生することが防止される。
【0018】
ステップS26において、値Nが閾値N1より小さいと判定された場合、ステップS27の処理はスキップされる。すなわち、この場合には、そのブロックには、黒色領域であることを示すフラグは設定されない。
【0019】
次に、ステップS28に進み、1フレーム内の全てのブロックについての判定処理が終了したか否かが判定され、まだ判定が終了していないブロックが存在する場合には、ステップS29に進み、処理対象とするブロックが変更される。そして、ステップS22に戻り、それ以降の処理が繰り返し実行される。ステップS28において、1フレーム分の全てのブロックについての判定処理が終了したと判定された場合、処理は終了される。
【0020】
同様にして、肌色領域の抽出処理が図4のフローチャートに示すステップS41乃至ステップS49の処理により行われる。このステップS41乃至ステップS49の処理は、基本的に、図3のステップS21乃至ステップS29の処理と同様の処理であるが、当然のことながら、ステップS43における肌色の画素であるか否かの判定の基準が、図3のステップS23における黒色の画素であるか否かの判定基準と異なっている。
【0021】
すなわち、ステップS43においては、色差データUを輝度データYで割り算することで正規化した値U/Yが、−0.1より大きく、0より小さく、かつ、色差データVを輝度データYで割り算して正規化した値V/Yが、0.1より大きく、かつ、0.3より小さいとき、肌色の画素と判定される。その他の処理は、図3における場合と同様であるので、その説明は省略する。
【0022】
図2に戻って、以上のようにして、黒色領域と肌色領域の抽出処理が完了したとき、ステップS3において、黒色領域が連続する範囲と肌色領域が連続する範囲を検出する処理が実行される。いま検出しようとしているのは、髪の毛と顔であり、これらはいずれも所定のフレーム内の領域に連続してまとまって存在するはずであり、所定のブロックが黒色または肌色であったとしても、フレーム内の所定の位置に孤立したブロックである場合、そのブロックは、髪の毛または顔を表す画像のブロックではない可能性が高い。そこで、このようなブロックは除去し、連続する範囲のブロックだけを髪の毛または顔の領域として検出する。
【0023】
次に、ステップS4において、ステップS3で検出した黒色の連続する範囲の面積SBと肌色の連続する範囲の面積SSが求められる。この面積は、単純にブロックの数とすることができる。
【0024】
次に、ステップS5において、ステップS2で演算された面積SBと面積SSの比Rが、次式から演算される。
R=SS/(SS+SB
【0025】
さらに、ステップS6において、演算装置2は、ステップS5で演算により求められた比Rを、予め設定されている基準値と比較し、被写体(例えば、テレビ会議の出席者の顔)の角度θを求める。
【0026】
すなわち、例えば図6に示すように、ビデオカメラ1に対して、ほぼ90度の方向を向いた人の顔を撮像する(図6(A))。その後、人が顔を左方向(ビデオカメラ1の方向)に徐々に回転し、ビデオカメラ1に顔の正面を向けた状態となるまで撮像する(図6(B))。そして、人が再びビデオカメラ1に対して90度の方向を向くまで、連続的に被写体としての人の顔を撮像する。これにより、例えば図7に示すように、被写体の横を向いた顔(図7(A))、斜めを向いた顔(図7(B))、さらに正面を向いた顔(図7(C))などの画像が得られることになる。
【0027】
被写体としての人にセンサを取り付け、そのセンサにより被写体の向きを検出して、図8に示すような結果が得られた。すなわち、真横を向いた状態(ビデオカメラ1に対して90度の方向を向いた状態)から、正面を向いた状態(ビデオカメラ1に対して0度の方向を向いた状態)まで顔を動かし、その後また、前の状態に戻るようにすると、その角度に応じた値がセンサにより検出される。
【0028】
一方、このように、人が顔を横に向けた状態から、正面を向き、また横を向いた状態に戻るように顔を動かしたときの、ステップS5で求めた肌色の割合の比Rは、図9に示すように変化した。肌色の割合は、使用者が正面を向いているとき最も大きく(約83%)、横方向を向いているとき最も小さくなった(約53%)。
【0029】
この図8と図9を比較して明らかなように、肌色の比Rの値は、人の顔の角度にほぼ対応している。従って、図9に示すような値をキャリブレーションにより予め求めておき、演算装置2に記憶しておき、それを基準値として、ステップS5でいま演算された比Rと比較することにより、人の向いている角度θを求めることができる。
【0030】
図10は、このようにして、髪の毛の領域と顔の領域をブロック単位で近似して、それぞれの面積を求め、人の角度を演算したとき得られた画像の例を表している。
【0031】
以上の処理によっては、正面に対する角度θを求めることが可能であるが、その角度は、正面に対して右方向の角度であるのか、左方向の角度であるのかを知ることはできない。すなわち、人の顔がビデオカメラ1に対して右側に45度の角度を向いた場合と、左側に45度の方向を向いた場合とでは、ステップS6においては、同じ値が得られる。そこで、以下の処理により、使用者が右を向いているのか、左を向いているのかが判定される。すなわち、ステップS7において、演算装置2は、黒色の領域の面積SBのx座標方向の重心GBと、肌色の領域の面積SSのx座標方向の重心GSを求める。この演算は、各領域内に含まれるi番目のブロックのx座標をxi、その領域内のブロック数をnとすれば、次式から行うことができる。
G=(1/n)Σxi
【0032】
図7(A)に模式的に示すように、人が左方向を向いている場合には、髪の毛の領域の重心GBのx座標は、顔の領域の重心GSのx座標より右側に位置する(より大きな値となる)。これに対して、人が右方向を向いている場合には、髪の毛の重心GBのx座標の値は、肌色の重心GSのx座標より左側に位置する(小さい値となる)。そこで、ステップS8において、ステップS7で求めた面積SBの重心GBのx座標と面積SSの重心GSのx座標の大小を比較し、重心GBのx座標の値が重心GSのx座標の値より大きい場合には、ステップS9において、フラグFに人が左方向を向いていることを表す記号Lを設定する。これに対して、重心GBのx座標の値が重心GSのx座標の値より小さい場合には、ステップS10において、フラグFに人の顔が右方向を向いていることを表す記号Rを設定する。
【0033】
以上のようにして、ステップS6で求めた角度θと、ステップS9,S10で求めたフラグFから、使用者が左右どちらの方向に何度向いているのかを検出することができる。
【0034】
なお、以上においては、基準値として、図9に示すようなキャリブレーションの結果を予め記憶するようにしたが、図11に示すように、使用者が正面を向いているときの比Rの値をRa、45度の方向を向いているときの比Rの値をRbとするとき、ステップS5で求められた比Rを、次式に代入することで角度θを求めることもできる。この場合、キャリブレーションは不要となる。
θ=((R−Ra)/(Rb−Ra))×45度
【0035】
図12は、他の構成例を表している。この構成例においては、ビデオカメラ1が2台(ビデオカメラ1−1とビデオカメラ1−2)設けられており、それぞれが撮像した画像信号が演算装置2に供給されている。図13は、このような構成例における場合の演算装置2の動作を表している。
【0036】
最初にステップS71において、ビデオカメラ1−1により被写体が撮像され、その撮像結果から、演算装置2は、上述した場合と同様にして(図2のフローチャートに示す処理を実行して)、被写体の向きと角度を検出する。同様に、ステップS72において、演算装置2は、ビデオカメラ1−2の出力から、被写体の角度と向きが検出される。
【0037】
ステップS73において、演算装置2は、ステップS71で検出した被写体の角度と、ステップS72で検出した被写体の角度とが一致するか否かを判定する。両者が一致する場合、ステップS74において、演算装置2は、ステップS71で検出された角度、またはステップS72で検出された角度の一方(例えば、ステップS71で検出された角度)を選択し、出力する。
【0038】
これに対して、ステップS73において、ステップS71で検出した角度と、ステップS72で検出した角度とが一致しないと判定された場合、少なくともいずれか一方の検出角度は誤っている可能性がある。そこで、ステップS75において、演算装置2は、ステップS71で検出した角度が予め設定されている所定の範囲内の角度、すなわち、検出可能な角度の範囲内にあるか否かを判定する。検出された角度が所定の範囲内の角度である場合には、ステップS76に進み、その検出された角度が正しい角度であるとして、その結果が出力される。
【0039】
ステップS75において、ステップS71の検出結果が所定の範囲内の角度を超えていると判定された場合、ステップS77に進み、ステップS72で検出した角度が所定の範囲内に含まれているか否かが判定される。検出された角度が所定の範囲内に含まれている場合には、ステップS76に進み、ステップS72で検出した結果が正しい結果であるとして、出力される。
【0040】
これに対して、ステップS77において、ステップS72の検出結果も所定の範囲内に含まれていないと判定された場合、ステップS78に進み、いずれの検出結果も誤りであるとして、演算装置2は、図示せぬディスプレイにエラーを表示する。
【0041】
なお、このように、ビデオカメラが2台存在する場合には、黒い領域の重心GBと肌色の領域の重心GSを計算しないでも、例えば図14に示す処理から、被写体の向きを求めることが可能となる。
【0042】
すなわち、この場合、最初にステップS91において、演算装置2は、ビデオカメラ1−1による面積比R1を求め、ステップS92において、ビデオカメラ1−2による面積比R2を求める。ステップS93において、ステップS91で求めた値R1と、ステップS92で求めた値R2の大小が比較される。値R1が値R2より大きい場合には、顔はビデオカメラ1−1の方向を向いていることを表すフラグが設定される。また、値R1の方が値R2より小さい場合には、ステップS95に進み、フラグFにビデオカメラ1−2の方向を向いていることを表すフラグが設定される。
【0043】
また、2台のビデオカメラをそれぞれ異なる方向に向けた場合には、1台の場合に比べて、検出範囲をより広くすることが可能となる。
【0044】
図15は、人間ではなく、ブロックの向きを検出する場合の例を示している。この例においては、ブロック21の面Aの面積SAと、面Aに対して垂直な面Bの面積SBが既知であるものとする。この場合、図16のフローチャートの処理が実行される。
【0045】
最初に、ステップS101において、ビデオカメラ1によりブロック21が撮像される。演算装置2は、ブロック21の撮像結果から、ステップS102において、面Aの面積Saを演算する。同様に、ステップS103において、面Bの面積Sbが演算される。次に、ステップS104において、演算装置2は、ステップS102とステップS103の演算により求めた値Sa,Sbを次式に代入して、面Aの正面となす角度θを求める。
θ=(SB/SA)tan-1(Sb/Sa
【0046】
なお、ブロック21の動きを考慮する必要がない場合には、面積比ではなく、面積そのものから角度を求めることも可能である。この場合の抽出領域は、1つで良い。すなわち、面Aまたは面Bだけで良いことになる。
【0047】
なお、上記したような処理を行うコンピュータプログラムをユーザに提供する提供媒体としては、磁気ディスク、CD-ROM、固体メモリなどの記録媒体の他、ネットワーク、衛星などの通信媒体を利用することができる。
【0048】
【発明の効果】
以上の如く、本発明の画像処理装置、画像処理方法、および記録媒体によれば、簡単かつ確実に、被写体の向きを求めることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した画像処理装置の構成を示す図である。
【図2】図1の画像処理装置の動作を説明するフローチャートである。
【図3】図2のステップS2の黒色領域を抽出する処理を説明するフローチャートである。
【図4】図2のステップS2の肌色領域を抽出する処理を説明するフローチャートである。
【図5】図3のステップS21のブロック化処理を説明する図である。
【図6】ビデオカメラと被写体の角度を説明する図である。
【図7】被写体の向きを説明する図である。
【図8】センサによる被写体の向きの検出結果を示す図である。
【図9】肌色の領域の黒色の領域に対する面積の比の変化を説明する図である。
【図10】髪の領域と顔の領域をブロック化し、抽出した処理の例を示す図である。
【図11】ビデオカメラと被写体の角度を説明する図である。
【図12】本発明を適用した他の情報処理装置の構成を示す図である。
【図13】図12の情報処理装置の動作を説明するフローチャートである。
【図14】図12の情報処理装置の動作を説明するフローチャートである。
【図15】本発明を適用したさらに他の情報処理装置の構成を示す図である。
【図16】図15の情報処理装置の動作を説明するフローチャートである。
【符号の説明】
1,1−1,1−2 ビデオカメラ, 2 演算装置, 21 ブロック

Claims (7)

  1. 被写体を複数の撮像部により撮像して得られた前記被写体の複数の画像データの供給を受ける入力手段と、
    前記複数の画像データのそれぞれから前記被写体の向きを検出する検出手段と、
    前記複数の画像データのそれぞれから検出した前記被写体の向きが一致しているか否かを判定する第1の判定手段と、
    前記複数の画像データのそれぞれから検出した前記被写体の向きが一致していない場合、前記複数の画像データのそれぞれから検出した前記被写体の向きが所定の範囲内であるか否かを判定する第2の判定手段と、
    前記複数の画像データのそれぞれから検出した前記被写体の向きの何れかが前記所定の範囲内である場合、前記所定の範囲内である向きを前記被写体の向きとして出力する出力手段と
    を含むことを特徴とする画像処理装置。
  2. 前記検出手段は、
    前記被写体の画像データから、第1の領域と第2の領域を抽出する抽出手段と、
    前記抽出手段により抽出された前記第1の領域と第2の領域の面積を演算する第1の演算手段と、
    前記第1の演算手段により演算された前記第1の領域と第2の領域の面積の比を演算する第2の演算手段と、
    前記第2の演算手段の演算結果に基づいて、前記被写体の向きを演算する第3の演算手段と
    を含むことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第3の演算手段は、前記第2の演算手段の演算結果を、予め記憶されている基準値と比較することで、前記被写体の角度を演算する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記第3の演算手段は、前記第2の演算手段の演算結果を、所定の計算式に代入することで、前記被写体の角度を演算する
    ことを特徴とする請求項2に記載の画像処理装置。
  5. 前記検出手段は、
    前記第1の領域と第2の領域の重心を演算する第4の演算手段と、
    前記第4の演算手段の演算結果に基づいて、前記被写体の方向を演算する第5の演算手段と
    さらに含むことを特徴とする請求項2に記載の画像処理装置。
  6. 被写体を複数の撮像部により撮像して得られた前記被写体の複数の画像データの供給を受ける入力手段と、
    前記複数の画像データのそれぞれから前記被写体の向きを検出する検出手段と、
    前記複数の画像データのそれぞれから検出した前記被写体の向きが一致しているか否かを判定する第1の判定手段と、
    前記複数の画像データのそれぞれから検出した前記被写体の向きが一致していない場合、前記複数の画像データのそれぞれから検出した前記被写体の向きが所定の範囲内であるか否かを判定する第2の判定手段と、
    前記複数の画像データのそれぞれから検出した前記被写体の向きの何れかが前記所定の範囲内である場合、前記所定の範囲内である向きを前記被写体の向きとして出力する出力手段と
    を含む画像処理装置の画像処理方法であって、
    前記入力手段が、前記複数の画像データの供給を受ける入力ステップと、
    供給された前記複数の画像データのそれぞれから、前記検出手段が前記被写体の向きを検出する検出ステップと、
    前記第1の判定手段が、前記被写体の向きが一致しているか否かを判定する第1の判定ステップと、
    前記複数の画像データのそれぞれから検出した前記被写体の向きが一致していない場合、前記第2の判定手段が、前記被写体の向きが前記所定の範囲内であるか否かを判定する第2の判定ステップと、
    前記複数の画像データのそれぞれから検出した前記被写体の向きの何れかが前記所定の範囲内である場合、前記出力手段が、前記所定の範囲内である向きを前記被写体の向きとして出力する出力ステップと
    含むことを特徴とする画像処理方法。
  7. 被写体を複数の撮像部により撮像して得られた前記被写体の複数の画像データの供給を受ける入力ステップと、
    前記複数の画像データのそれぞれから前記被写体の向きを検出する検出ステップと、
    前記複数の画像データのそれぞれから検出した前記被写体の向きが一致しているか否かを判定する第1の判定ステップと、
    前記複数の画像データのそれぞれから検出した前記被写体の向きが一致していない場合、前記複数の画像データのそれぞれから検出した前記被写体の向きが所定の範囲内であるか否かを判定する第2の判定ステップと、
    前記複数の画像データのそれぞれから検出した前記被写体の向きの何れかが前記所定の範囲内である場合、前記所定の範囲内である向きを前記被写体の向きとして出力する出力ステップと
    を含むことを特徴とする処理をコンピュータに実行させるプログラムが記録されている記録媒体。
JP06845599A 1999-03-15 1999-03-15 画像処理装置および方法、並びに記録媒体 Expired - Lifetime JP4305996B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06845599A JP4305996B2 (ja) 1999-03-15 1999-03-15 画像処理装置および方法、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06845599A JP4305996B2 (ja) 1999-03-15 1999-03-15 画像処理装置および方法、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2000268180A JP2000268180A (ja) 2000-09-29
JP4305996B2 true JP4305996B2 (ja) 2009-07-29

Family

ID=13374201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06845599A Expired - Lifetime JP4305996B2 (ja) 1999-03-15 1999-03-15 画像処理装置および方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP4305996B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4526639B2 (ja) * 2000-03-02 2010-08-18 本田技研工業株式会社 顔認識装置およびその方法
JP4355853B2 (ja) * 2003-09-18 2009-11-04 カシオ計算機株式会社 画像撮影装置およびプログラム
KR101791604B1 (ko) 2012-09-11 2017-10-30 삼성전자주식회사 헤드 포지션 추정 방법 및 장치, 컴퓨터 판독가능 저장 매체
CN105739707B (zh) * 2016-03-04 2018-10-02 京东方科技集团股份有限公司 电子设备、脸部识别跟踪方法和三维显示方法
CN110675834B (zh) * 2019-09-25 2021-01-01 惠州市华星光电技术有限公司 改善有色人种肤色视角表现的设计方法及系统

Also Published As

Publication number Publication date
JP2000268180A (ja) 2000-09-29

Similar Documents

Publication Publication Date Title
US10796179B2 (en) Living face verification method and device
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP4912117B2 (ja) 追跡機能付き撮像装置
US7324670B2 (en) Face image processing apparatus and method
JP5911846B2 (ja) 肌色領域及び顔領域に基づく視点検出器
JP5484184B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9183634B2 (en) Image processing apparatus and image processing method
JPH08172566A (ja) 手振れ補正装置およびそれを用いたビデオカメラ
JP2006109172A (ja) 画像処理方法及び画像処理装置
JP2016123044A (ja) 被写体追跡装置、その制御方法およびプログラム
JP4305996B2 (ja) 画像処理装置および方法、並びに記録媒体
CN110781712A (zh) 一种基于人脸检测与识别的人头空间定位方法
JP6406044B2 (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
JP2000123186A (ja) 被写体認識装置
JP5416489B2 (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
JP6602286B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2013032785A1 (en) Line tracking with automatic model initialization by graph matching and cycle detection
KR20130038487A (ko) 싱글 카메라를 이용한 물체 거리 측정 장치 및 방법
KR20220115223A (ko) 다중 카메라 캘리브레이션 방법 및 장치
US20220207754A1 (en) Target tracking method, device, medium and apparatus
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
JPH09265538A (ja) 自動追尾装置
JP2017158065A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2008146132A (ja) 画像検出装置、プログラム及び画像検出方法
JP2020149565A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090414

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term