JP4561914B2 - 操作入力装置、操作入力方法、プログラム - Google Patents

操作入力装置、操作入力方法、プログラム Download PDF

Info

Publication number
JP4561914B2
JP4561914B2 JP2008242609A JP2008242609A JP4561914B2 JP 4561914 B2 JP4561914 B2 JP 4561914B2 JP 2008242609 A JP2008242609 A JP 2008242609A JP 2008242609 A JP2008242609 A JP 2008242609A JP 4561914 B2 JP4561914 B2 JP 4561914B2
Authority
JP
Japan
Prior art keywords
face
priority
body part
predetermined
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008242609A
Other languages
English (en)
Other versions
JP2010074735A (ja
Inventor
俊介 勝又
陽介 平塚
真吾 善積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008242609A priority Critical patent/JP4561914B2/ja
Priority to US12/534,386 priority patent/US8199208B2/en
Priority to CN2009101736562A priority patent/CN101686329B/zh
Publication of JP2010074735A publication Critical patent/JP2010074735A/ja
Application granted granted Critical
Publication of JP4561914B2 publication Critical patent/JP4561914B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、例えば操作入力に応答してしかるべき動作を実行する操作入力装置と、その
方法に関する。また、操作入力装置が実行するプログラムに関する。
特許文献1には、撮影装置として、例えば被撮影者の所定の動きとして、例えば両目が
開いた状態から一方の目が閉じられた後に両目が開いた状態になる動きを検出したときに
シャッターを切って静止画を撮影するようにした構成が記載されている。これにより、遠
隔操作により被撮影者の望むタイミングで撮影が行えるようにしようというものである。
特開2008−72183号公報
本願発明としても、例えば被写体として撮像されている人などの所定の動作により撮像
装置などの装置をリモートコントロール(遠隔操作)しようというものである。そのうえ
で、このような装置についてより実用性、有用性が高いものが得られるようにすることを
目的とする。
そこで本願発明は上記した課題を解決するために、操作入力装置として次のように構成することとした。
つまり、画像データの画内容において存在する被写体における所定の身体部分を検出する身体部分検出手段と、この身体部分検出手段により上記身体部分が複数検出される場合において、これら複数の身体部分ごとに、優先度設定条件に対応する所定の状態について判定する状態判定手段と、この状態判定手段の判定結果に基づいて、上記複数の身体部分ごとに優先度を設定する優先度設定手段と、上記身体部分検出手段により検出される身体部分により、操作に相当する所定の動きが行われたか否かについての判定を行うもので、上記優先度に基づいて設定した、判定対象とする身体部分についての判定受容度に従って判定を行う操作判定手段と、この操作判定手段により上記操作に相当する所定の動きが行われたことが判定されたのに応じて、本操作入力装置の所定の動作が実行されるようにして制御する制御手段とを備えることとした。
上記構成では、画像データに存在する被写体における特定の身体部分についての操作に相当する動きを判定するようにされている。そして、この操作に相当する動きが判定されたことに応じて、操作入力装置は所定の動作を実行する。つまり、ユーザが特定の身体の動きをすることにより装置に対するリモートコントロールを行える。
そのうえで、上記特定の身体部分についての所定の状態に応じて優先度を設定し、操作に相当する動きの判定に際しては、この優先度に応じた判定の受容度を反映させるようにする。これにより、複数の被写体に対応する身体部分のうち、或る身体部分については動きの判定が行われやすく、或る身体部分については動きの判定がされにくくするようにできる。
上記の構成により、本願発明によっては、被写体の動作により遠隔操作が可能な撮像装
置として、これまでよりも実用性が高く、有用なものが得られる。
以下、本願発明を実施するための最良の形態(以下、実施形態という)について、下記
の順により説明する。

1.デジタルスチルカメラの構成
2.顔ジェスチャパターン例
3.顔ジェスチャ認識処理例
4.優先度設定
5.実現構成例
1.デジタルスチルカメラの構成

図1は、本実施形態の撮像装置であるデジタルスチルカメラ1の内部構成例を示してい
る。
この図において、先ず、光学系部21は、例えばズームレンズ、フォーカスレンズなど
も含む所定枚数の撮像用のレンズ群、絞りなどを備えて成り、入射された光を撮像光とし
てイメージセンサ22の受光面に結像させる。
また、光学系部21においては、上記のズームレンズ、フォーカスレンズ、絞りなどを
駆動させるための駆動機構部も備えられているものとされる。これらの駆動機構部は、例
えば制御部27が実行するとされるズーム(画角)制御、自動焦点調整制御、自動露出制
御などのいわゆるカメラ制御によりその動作が制御される。
イメージセンサ22は、上記光学系部21にて得られる撮像光を電気信号に変換する、
いわゆる光電変換を行う。このために、イメージセンサ22は、光学系部21からの撮像
光を光電変換素子の受光面にて受光し、受光された光の強さに応じて蓄積される信号電荷
を、所定タイミングにより順次出力するようにされる。これにより、撮像光に対応した電
気信号(撮像信号)が出力される。なお、イメージセンサ22として採用される光電変換素
子(撮像素子)としては、特に限定されるものではないが、現状であれば、例えばCMO
SセンサやCCD(Charge Coupled Device)などを挙げることができる。また、CMOS
センサを採用する場合には、イメージセンサ22に相当するデバイス(部品)として、次に
述べるA/Dコンバータ23に相当するアナログ−デジタル変換器も含めた構造とするこ
とができる。
上記イメージセンサ22から出力される撮像信号は、A/Dコンバータ23に入力され
ることで、デジタル信号に変換され、信号処理部24に入力される。
信号処理部24では、A/Dコンバータ23から出力されるデジタルの撮像信号につい
て、例えば1つの静止画 (フレーム画像)に相当する単位で取り込みを行い、このように
して取り込んだ静止画単位の撮像信号について所要の信号処理を施すことで、1枚の静止
画に相当する画像信号データである撮像画像データ(撮像静止画像データ)を生成するこ
とができる。
上記のようにして信号処理部24にて生成した撮像画像データを画像情報として記憶媒
体であるメモリカード40に記録させる場合には、例えば1つの静止画に対応する撮像画
像データを信号処理部24からエンコード/デコード部25に対して出力するようにされ
る。
エンコード/デコード部25は、信号処理部24から出力されてくる静止画単位の撮像
画像データについて、所定の静止画像圧縮符号化方式により圧縮符号化を実行したうえで
、例えば制御部27の制御に応じてヘッダなどを付加して、所定形式に圧縮された撮像画
像データの形式に変換する。そして、このようにして生成した撮像画像データをメディア
コントローラ26に転送する。メディアコントローラ26は、制御部27の制御に従って
、メモリカード40に対して、転送されてくる撮像画像データを書き込んで記録させる。
この場合のメモリカード40は、例えば所定規格に従ったカード形式の外形形状を有し、
内部には、フラッシュメモリなどの不揮発性の半導体記憶素子を備えた構成を採る記憶媒
体である。なお、画像データを記憶させる記憶媒体については、上記メモリカード以外の
種別、形式などとされてもよい。
また、本実施形態としての信号処理部24は、撮像画像データとしての画像内容から、
被写体における身体部分の1つである顔を検出するための画像処理(顔検出処理)を実行
することも可能とされている。本実施形態における顔検出処理がどのようなものであるの
かについては後述する。
また、デジタルスチルカメラ1は信号処理部24にて得られる撮像画像データを利用し
て表示部33により画像表示を実行させることで、現在撮像中の画像であるいわゆるスル
ー画を表示させることが可能とされる。例えば信号処理部24においては、先の説明のよ
うにしてA/Dコンバータ23から出力される撮像信号を取り込んで1枚の静止画相当の
撮像画像データを生成するのであるが、この動作を継続することで、動画におけるフレー
ム画像に相当する撮像画像データを順次生成していく。そして、このようにして順次生成
される撮像画像データを、制御部27の制御に従って表示ドライバ32に対して転送する
。これにより、スルー画の表示が行われる。
表示ドライバ32では、上記のようにして信号処理部24から入力されてくる撮像画像
データに基づいて表示部33を駆動するための駆動信号を生成し、表示部33に対して出
力していくようにされる。これにより、表示部33においては、静止画単位の撮像画像デ
ータに基づく画像が順次的に表示されていくことになる。これをユーザが見れば、そのと
きに撮像しているとされる画像が表示部33において動画的に表示されることになる。つ
まり、スルー画像が表示される。
また、デジタルスチルカメラ1は、メモリカード40に記録されている撮像画像データ
を再生して、その画像を表示部33に対して表示させることも可能とされる。
このためには、制御部27が撮像画像データを指定して、メディアコントローラ26に
対してメモリカード40からのデータ読み出しを命令する。この命令に応答して、メディ
アコントローラ26は、指定された撮像画像データが記録されているメモリカード40上
のアドレスにアクセスしてデータ読み出しを実行し、読み出したデータを、エンコード/
デコード部25に対して転送する。
エンコード/デコード部25は、例えば制御部27の制御に従って、メディアコントロ
ーラ26から転送されてきた撮像画像データから圧縮静止画データとしての実体データを
取り出し、この圧縮静止画データについて、圧縮符号化に対する復号処理を実行して、1
つの静止画に対応する撮像画像データを得る。そして、この撮像画像データを表示ドライ
バ32に対して転送する。これにより、表示部33においては、メモリカード40に記録
されている撮像画像データの画像が再生表示されることになる。
また表示部33に対しては、上記のスルー画像や撮像画像データの再生画像などととも
に、ユーザインターフェイス画像も表示させることができる。この場合には、例えばその
ときの動作状態などに応じて制御部27が必要なユーザインターフェイス画像としての表
示用画像データを生成し、これを表示ドライバ32に対して出力するようにされる。これ
により、表示部33においてユーザインターフェイス画像が表示されることになる。なお
、このユーザインターフェイス画像は、例えば特定のメニュー画面などのようにスルー画
像や撮像画像データの再生画像とは個別に表示部33の表示画面に表示させることも可能
であるし、スルー画像や撮像画像データの再生画像上の一部において重畳・合成されるよ
うにして表示させることも可能である。
制御部27は、例えば実際においてはCPU(Central Processing Unit)を備えて成る
もので、ROM28、RAM29などとともにマイクロコンピュータを構成する。ROM
28には、例えば制御部27としてのCPUが実行すべきプログラムの他、デジタルスチ
ルカメラ1の動作に関連した各種の設定情報などが記憶される。RAM29は、CPUの
ための主記憶装置とされる。
また、この場合のフラッシュメモリ30は、例えばユーザ操作や動作履歴などに応じて
変更(書き換え)の必要性のある各種の設定情報などを記憶させておくために使用する不揮
発性の記憶領域として設けられるものである。なおROM28について、例えばフラッシ
ュメモリなどをはじめとする不揮発性メモリを採用することとした場合には、フラッシュ
メモリ30に代えて、このROM28における一部記憶領域を使用することとしてもよい
操作部31は、デジタルスチルカメラ1に備えられる各種操作子と、これらの操作子に
対して行われた操作に応じた操作情報信号を生成してCPUに出力する操作情報信号出力
部位とを一括して示している。制御部27は、操作部31から入力される操作情報信号に
応じて所定の処理を実行する。これによりユーザ操作に応じたデジタルスチルカメラ1の
動作が実行されることになる。
本実施形態のデジタルスチルカメラ1は、対応する雲台に載置させるようにして取り付
けることが可能とされている。雲台は、パン(横、水平)方向及びチルト(縦、垂直)方向
に沿って、それぞれ、回転軸を中心にして回転するようにして移動可能とされている。こ
れにより、デジタルスチルカメラ1が載置された状態で雲台が移動することによっては、
デジタルスチルカメラ1により撮像できる視野範囲が水平方向及び垂直方向により変更さ
れることになる。
そして、雲台に載置された状態において、デジタルスチルカメラ1は、有線又は無線に
より雲台と通信を行うことが可能とされている。これにより、例えばデジタルスチルカメ
ラ1により、パン位置、チルト位置を指定するようにして、雲台10の動きを制御するこ
とが可能となる。
雲台対応通信部34は、雲台10側とデジタルスチルカメラ1側との間での所定の通信
方式に従った通信を実行する部位であり、例えばデジタルスチルカメラ1が雲台10に対
して取り付けられた状態において、雲台10側の通信部との間での有線若しくは無線によ
る通信信号の送受信を可能とするための物理層構成と、これより上位となる所定層に対応
する通信処理を実現するための構成とを有して成る。
音声出力部35は、制御部27の制御により所定の音色と発音パターンによる電子音を
出力する部位である。
LED部36は、例えばデジタルスチルカメラ1の筐体前面部に表出して設けられるL
ED(Light Emitting Diode)と、このLEDを点灯駆動する回路部などから成り、制御部
27の制御に応じて、LEDを点灯、消灯する。
なお、本実施形態のデジタルスチルカメラ1に対応する雲台10について、その外観例
を図24〜図29に示しておく。
図24は、雲台10の正面図を示す。図25は、雲台10の背面図を示す。図26は、
雲台10の左側面図を示す。図27は、雲台10の右側面図を示す。図28は、雲台10
の平面図を示す。図29は、雲台10の底面図を示す。

2.顔ジェスチャパターン例

本実施形態のデジタルスチルカメラ1は、そのときの撮像画像において検出されている
人の顔についての所定の動きのパターンに応答して、この所定の動きに予め対応して決め
られている動作を実行する。つまり、ユーザは、デジタルスチルカメラ1により自身の顔
を撮像させている状態において、例えばウィンクであるとか顔を傾けるなど、自身の顔に
ついて所定のパターンにより動かすことにより、デジタルスチルカメラ1の動作をリモー
トコントロールすることができる。
なお、以降においては、リモートコントロールのための顔の動きについては顔ジェスチ
ャということにする。
顔ジェスチャの理解のために、図2〜図4により、顔ジェスチャのパターン(顔ジェス
チャパターン)例について示しておく。
図2〜図4には、リモートコントロール操作を行うユーザ(操作者)の顔が模式的に示さ
れる。
図2においては、先ず、操作者が両目を開けている状態から片目(この場合には右目)を
閉じ、この後再び閉じた片目を開いて両目が開いた状態にする、という顔ジェスチャパタ
ーンが示されている。
図3においては、操作者が両目を開けている状態から両目を閉じ、この後再び両目を開
いた状態にする、という顔ジェスチャパターンが示されている。
図4においては、先ずは、顔の傾かせずにまっすぐに正立させて目を開いた状態から片
目(右目)を閉じ、さらにこの片目を閉じた状態を維持しながら、顔を左(紙面では右とな
る)に傾ける、という顔ジェスチャパターンが示されている。
例えば、上記図2〜図4に例示したように、顔ジェスチャとしては、両目が開く、片目
若しくは両目が閉じられる、顔が傾くなどの単一的な動き(状態)の要素が考えられる。
顔ジェスチャパターンは、1又は複数による上記単一の動きの要素から構成されるもので
、複数の単一の動きの要素により構成する場合には、これらの単一の動きの要素を所定の
規則に従って組み合わせたものとなる。
そして、このようにして作られる顔ジェスチャパターンごとに、デジタルスチルカメラ
1が実行すべき所定の動作を割り当てるようにするものである。つまり、或る特定の1つ
の顔ジェスチャパターンが、リモートコントロール装置が送信する或る特定の命令内容を
示すコマンドコードに相当するものとなる。
なお、上記単一の動きについては、顔ジェスチャパターン、すなわちコマンドを構成す
る最小単位であることに因み、単位コマンドともいう。
このような顔ジェスチャを用いたリモートコントロールにより可能な操作としては、例
えば、静止画による撮像画像の記録、セルフタイマーによる記録、連写撮影記録、動画に
よる撮像画像の記録開始・停止、フラッシュのオン・オフ切り換えなどをはじめ、多様に
考えることができる。
また、後述もするようにして、顔ジェスチャによっては、デジタルスチルカメラ1側で
顔ごとに設定する優先度を意図的に高くさせるなど、デジタルスチルカメラ1の撮像に関
する動作とは直接関係のない動作についても操作することができる。
3.顔ジェスチャ認識処理例

続いては、デジタルスチルカメラ1が実行する、顔ジェスチャパターンについての認識
処理の例について、図5〜図7を参照して説明する。
ここでの説明にあたっては、図2に示した顔ジェスチャパターンを、セルフタイマー撮
影の操作コマンドとして割り当てた場合を例に挙げることとする。
先ず、操作者は、自分の顔がデジタルスチルカメラ1の撮像視野に入り、かつ、顔の向
きが撮像方向(光学系の光軸)に対してほぼ真向かいとなるようにする。このときには、
通常に両目を開いた状態でよい。なお、この通常に両目を開いた状態においては、瞬きは
していても構わない。後述するようにして本実施形態の動きの認識処理によっては、瞬き
としての目の動きと、操作のために意識的に行われる目の開閉の動きとを弁別できるよう
になっている。
上記の操作者の状態に対応してデジタルスチルカメラ1は、図5における時点t1とし
て示すように、このときの撮像画像データから撮像されている操作者の顔を正常に認識す
る。そして、このようにして顔を認識すると、顔を認識したことをユーザに通知するため
に、LED部36のLEDを点灯させる。これにより、操作者は、以降において、自身が
顔ジェスチャを行えば、デジタルスチルカメラ1がこれをコマンドとして受け付けてくれ
る状態にあることを知ることができる。
上記時点t1にてLEDが点灯した後の時点t2において、操作者は、セルフタイマー
撮影のために、先ず、片目を閉じる。そして、時点t1において最初に目を閉じてから、
ほぼ0.6秒が経過するまで、この目を閉じた状態を継続させると、デジタルスチルカメ
ラ1においては、今回の片目を閉じた顔の動作が、リモートコントロールのための顔ジェ
スチャパターンを成す単一の動作、状態の要素、即ち単位コマンド(目つぶりコマンド)
であることを認識する。そして、時点t3として示すように、目つぶりコマンドを認識し
たことに応じて、デジタルスチルカメラ1は、音声出力部35から目つぶりコマンドを認
識したことをユーザ側に通知するための音(通知音)を出力する。
ここでは、目つぶりコマンドの認識のためには、0.6秒以上にわたって片目を閉じた
状態を維持することが必要であるとしている。これにより、例えば瞬きにより目が閉じら
れるときとの弁別を行い、瞬きを目つぶりコマンドとして誤認識しないようにしている。
なお、この目つぶりコマンドの認識のための期間(目つぶりコマンド認識期間)を0.6
秒としているのは、本願発明者等が検討した結果、妥当であるとして得られた時間長では
ある。しかし、あくまでも一例であって、目つぶりコマンド認識期間として必要な時間長
は特に限定されるものではない。
上記のようにして時点t3において出力される通知音を聴くことで、操作者は、自身が
行った目を閉じた動作が単位コマンドとして受け付けられたことを知る。そこで、操作者
は、顔ジェスチャパターンを成す次の単位コマンドとして、これまで開いていた目を開く

このようにして目が開かれたことに応じては、デジタルスチルカメラ1は、図7により
後述するようにして、今回の片目を閉じた顔の動作が、リモートコントロールのための顔
ジェスチャパターンを成す単位コマンド(目開きコマンド)であることを認識する。これ
に応じて、デジタルスチルカメラ1は、時点t4として示すように、時点t3の場合と同
様にして通知音を出力する。また、ここまでの顔ジェスチャが行われた段階で、デジタル
スチルカメラ1は、両目を開いた状態→片目を閉じた状態→両目を開いた状態という、図
2に示したのと同じ単位コマンドの組み合わせ方による顔ジェスチャパターンであること
を判定する。つまり、この判定結果に従って、デジタルスチルカメラ1は、時点t4にて
、セルフタイマー撮影の操作入力が行われたものとして判断することになる。
そこで、デジタルスチルカメラ1は、時点t4から予め設定されたセルフタイマー期間
としての時間(例えば2秒程度)だけ待機する。この間、操作者は、ポーズなどを取った
り表情を作るなどして準備しておくことができる。そして、このセルフタイマー期間が完
了したとされる時点t5に至ると、そのときに撮像されている画像を静止画として記録す
る動作が実行される。
図6は、上記図5により説明した目つぶりコマンド認識期間における目つぶりコマンド
認識のための検出処理を示している。
ここでは、先ず、時点t0において操作者が片目を閉じたとする。また、デジタルスチ
ルカメラ1においては、0.1秒の検出時間間隔intごとのサイクルで、顔ジェスチャに対応
する顔の状態(顔状態)を検出することとしている。また、顔状態の検出は、0.1秒ごと
に連続3回の検出が1セットとなる。つまり、1セットの検出は、図示するようにして1回目
の検出タイミングDt1と、その0.1秒後となる2回目の検出タイミングDt2と、さらにその0
.1秒後となる3回目の検出タイミングDt3から成る。そして、この1セット分の検出を繰り
返す。
この場合、時点t0からほぼ0.1秒が経過した時点t1とこれに続く時点t2,t3が1
セットとなっている。目つぶりコマンドの判定においては、先ず、1セットを成す3回の検
出タイミングのうち、2回以上の検出タイミングにより顔状態が目つぶりであるとして検
出されると、目つぶりの状態であるとみなす判定を行う。つまり、図6の場合であれば、
時点t3において、1回目の目つぶり状態であるとの判定結果が得られる(目つぶり状態
判定1)
時点t1,t2,t3による1セットに続いては、時点t3から0.1秒を経過した時
点t4と、これに続く時点t5、t6により、次の2回目の1セットによる顔状態の検出
が行われることになる。そして、この場合においては、この時点t4,t5,t6による
セットにおいても、2回以上の検出タイミングにより顔状態が目つぶりであるとして検出
され、目つぶり状態であるとの判定結果が得られたとする(目つぶり判定2)
目つぶりコマンドであるとして認識されるための条件は、2セット以上連続して目つぶ
り状態であるとの判定結果が得られることとしている。従って、図6の場合には、時点t
6において、目つぶりコマンドであることが認識されることになる(目つぶりコマンド判
定)。
既に本願発明者等が確認しているが、例えば、瞬きの場合には、2セット連続して目つ
ぶり状態であるとして判定されることはほとんどない。このような目つぶりコマンドの認
識処理としていることで、本実施形態では、操作者が意図的に行う目つぶりコマンドとし
ての目の動きと、無意識に短時間で行われる瞬きとしての目の動きとをほぼ確実に弁別で
きるようにしている。
図6は、上記図5において目つぶりコマンドが認識された後において、目開きコマンド
を認識するための検出処理を示している。
この図において時点t7は、図6に示した時点t6から或る時間が経過した時点となる
もので、操作者は、時点t6まで維持していた片目を閉じた状態を、この時点t7に至っ
たときにも継続しているものとする。
また、この時点t7は、1セットにおける3回目の検出タイミングDt3とされており、
この結果、時点t7においては、n-1回目の目つぶり状態であるとの判定結果が得られた
ものとする。また、このときには、時点t6にてはじめて認識された目つぶりコマンドが
、まだ継続しているものとして認識されている。
さらに、この時点t7に続く時点t8,t9,t10の検出タイミングから成るセット
においても、操作者の片目を閉じた状態が継続されていたことで、時点t10の段階で、
n-1回目の目つぶり状態であるとの判定結果が得られたものとする。これに応じて、時点
10においても、時点t6にて認識された目つぶりコマンドが継続しているものとして認
識される。
そして、時点t10に続く次のセット(時点t11,t12,t13)において、時点
t11,t12の各検出タイミングDt1,Dt2では、片目を閉じていると認識したが、時点
t12経過の直後に操作者が閉じていた片目を開いて両目が開かれた状態になったとする
。すると、このセットにおいて3回目となる時点t13の検出タイミングDt3において、顔
状態は両目が開かれている状態であるとの検出結果が得られることになる。
目開きコマンドについては、上記時点t11,t12,t13に対応するセットの場合
のようにして、3回の検出タイミングのうち、少なくとも1回の検出タイミングにおいて
目が開いていることが検出されたとすると、そのセットは目開きコマンドであるとして認
識する。
目つぶりコマンドの認識に関しては、2回以上の検出タイミングにより目つぶり状態で
あるとの検出結果となるセットが2回連続することを条件としていた。
これに対して、目開きコマンドの認識に関しては、少なくとも1回の検出タイミングで
目開き状態であることが検出されれば、その1セットのみにより、ただちに目開きコマン
ドであると認識するようにしている。本願発明者等は、目開きコマンドについて上記の条
件を設定しさえしておけば、目開きコマンドついては、図7の条件であっても、高い精度
で認識できることを確認している。これにより、目開きコマンドの認識のための認識期間
については短いものとなるので、それだけ、顔ジェスチャによるコマンドに対するデジタ
ルスチルカメラ1の応答も速くすることができる。
4.優先度設定

上記したデジタルスチルカメラ1による顔ジェスチャの認識処理は、例えば撮像画像の
画枠において1つの顔のみが検出されている場合であれば、この1つの顔のみを認識対象
とすればよいので、特に問題にはならない。
しかし、例えば複数の被写体が撮像されていることに応じて、画枠内に複数の顔が検出
されている状態においては次のような問題を生じる。
先に図2にて説明したように、本実施形態における顔ジェスチャパターンを形成する要
素(単位コマンド)は、目を閉じる、目を開く、顔を傾けるなどの動作などが対応する。
人がこのような動作を意識せずにしてしまう可能性のあることは否定できない。このため
に、操作者以外の被撮影者がたまたま何らかの操作に相当する顔ジェスチャと同じ顔の動
きをしてしまった場合には、その顔ジェスチャに応答してデジタルスチルカメラ1が動作
してしまうことになる。つまり、被撮影者が複数の場合には、操作者以外の被撮影者がた
またま顔ジェスチャによる操作を行ってしまい、本来望んでいない誤った動作をデジタル
スチルカメラ1が実行してしまう不都合が生じる可能性がある。そこで本実施形態では、
上記の不都合を下記のようにして回避する。
つまり、本実施形態のデジタルスチルカメラ1は、撮像画像の画枠内において検出され
ている顔が複数の場合には、これらの顔ごとについて、以下に述べる各条件に従って優先
度(優先順位)を与える。そして、顔ごとについての顔ジェスチャによる操作が判定、認
識されやすくする度合い(判定受容度)を、設定された優先度に応じて変更できるように
した。
図8〜図12により、画枠内にて検出される顔についての優先度評価のための条件(優
先度設定条件)例について説明する。なお、これらの図においては、説明を分かりやすく
簡単なものとすることの便宜上、画枠300内において検出されている顔は2つである場
合を例に挙げている。
先ず図8では、画枠300において、2つの顔A、顔Bが検出されている状態が示され
ている。これらの顔A、顔Bを画枠300内におけるサイズについてみると、顔Bよりも
顔Aのほうが大きい。例えば、説明を分かりやすくするために、顔Aと顔Bの実物サイズ
が同じであるとする。すると、図8においては、そのサイズが大きい顔Aのほうが顔Bよ
りも、被写体距離が短い、すなわち、デジタルスチルカメラ1により近いことになる。こ
こでの被写体距離とは、デジタルスチルカメラ1からその被写体物までの距離をいう。複
数の顔(被写体)のうちで、操作者となるべき者は、デジタルスチルカメラ1により近い
位置にいる可能性が高い。そこで、本実施形態では、優先度設定の条件の1つとして、被
写体距離が近い顔、すなわち、画枠内においてサイズが大きい顔ほど、優先度を高く設定
することとした。図8の場合には、顔Bよりも顔Aのほうに高い優先度を設定することに
なる。
ただし現実には、例えば同じ画枠に収まる被写体(顔)が大人と子供であったり、また
、男性と女性であったりする可能性は避けられない。実物の顔のサイズは、大人と子供で
は子供の方が小さく、男性と女性では女性のほうが小さい。これらの顔の組み合わせの場
合において、このような実物のサイズの差を考慮せずに単に画枠内の顔のサイズのみによ
り優先度を設定すると、正しい被写体距離が反映されない可能性がある。
そこで、本実施形態のデジタルスチルカメラ1では、後述もするようにして、画枠内の
顔サイズに基づいて優先度を設定するときには、そのときに判定された顔についての年齢
、性別の属性に基づいて、顔サイズについて修正、正規化を行ったうえで、この修正後の
顔サイズに基づいて被写体距離に応じた優先度を設定する。
次に図9の画枠300においては、水平サイズの中点を通過する分割線Lyと、垂直サイ
ズの中点を通過する分割線Lxとが仮想的に示されている。ここでは、この分割線Ly,Lxの
交点を画枠300の中心位置とする。
本実施形態においては、画枠における中心に近い顔ほど、操作者である可能性が高い者
として扱う。このことに基づき、画枠内における顔の位置に関しては、画枠の中心位置に
より近い顔ほど優先度を高く設定することとした。
図9の場合には、顔Aと顔Bのうち、画枠の中心位置により近いのは顔Bなので、顔A
よりも顔Bのほうに高い優先度を設定することになる。
例えば、画枠にて検出される顔を、或る連続したフレーム期間にわたって観測した場合
には、画枠内における顔の位置の変化、つまり、動きを検出することができる。
図10には、この動き検出の結果として、画枠300内にて検出された顔A、顔Bのう
ち、顔Bは静止していることが検出されているのに対して、顔Aは、動いていることが検
出されているものとする。
このような顔(被写体)の動きに関すれば、動きの小さな顔ほど操作者である可能性が
高いといえる。そこで、顔の動きに関しては、動きが小さいほど高い優先度を設定する。
図10の場合には、顔Bのほうに顔Aよりも高い優先度を設定する。
図11(a)は或る時刻に得られた画枠300の画内容を示し、図11(b)は、図1
1(a)から或る時間を経過したときの画枠300の画内容を示している。
図11(a)の画内容は、これまで両目を開けていた顔Aのほうが片目(この場合は右
目)を閉じたが、顔Bのほうは、両目を開けたままの状態を示している。図11(b)は
、図11(a)の画内容が得られて或る時間を経過して顔Bも片目を閉じたときの画内容
を示す。
例えば、図8〜図10の各条件に対応させては、操作者が意識して自分が優先されるよ
うにしようとすれば、ほかの被撮影者よりもデジタルスチルカメラ1の近くに移動しよう
とする、もしくは、ほかの被撮影者よりも画枠の中心位置に近いところで撮像されるよう
に移動しようとする、もしくは、できるだけ静止していようとすることが通常である。図
11の優先度設定の例は、操作者により積極的に顔の動作を求めるものとなる。
つまり、図11に対応する例では、先ず、或る所定の顔ジェスチャに相当する動作を優
先動作として決めておく。そして、時系列において、この優先動作としての顔ジェスチャ
を先に行った顔について高い優先度を設定する。
図11での具体例としては、上記優先動作を、「片目を閉じる」という顔ジェスチャで
あるとして決めている。従って、図11の場合においては、顔A,顔Bのいずれも片目を
閉じる顔ジェスチャをしているが、顔Aのほうが時間的に早く片目を閉じる動作を行って
いるので、顔Aのほうにより高い優先度を設定することになる。
図12においては、画枠300にて検出されている顔A、顔Bのうち、顔Bは両目を開
いたままで特に顔ジェスチャは行っていないのに対して、顔Aは、片目(この場合は右目
)を閉じた状態で、かつ、顔自体を左(画面では右となる)に傾ける、という顔ジェスチ
ャパターンを行った状態が示される。
この図12に示す例も、条件として操作者に対して積極的に顔の動作を求めるものの1
つとなる。つまり、図12の例では、優先動作として予め定めた特定の顔ジェスチャパタ
ーンを先に行った顔について、高い優先度を与えようというものである。
図12の場合、上記優先動作としての特定の顔ジェスチャパターンは、顔Aが行った、
片目を閉じながら顔自体を左に傾けるものとして定めているものとする。従って、図12
の場合には、顔Aに対して高い優先度を設定する。
なお、図12の場合のようにして、操作者に対して顔ジェスチャのパターンまで要求す
る条件とする場合、操作者は、図11の場合よりも相当に強い意志で自信が操作者になろ
うとしているといえる。
そこで、図12の場合については、例えば、優先動作としての顔ジェスチャパターンの
動きをした顔について、図11の場合よりも高い優先度が与えられるようにすることが妥
当となる。
なお、図8〜図12に関しては共通に前提となる条件が定められている。つまり、顔が
正面を向いている、すなわち、デジタルスチルカメラ1の撮像光学系にほぼ正面から向き
合う状態でいる顔のみを優先度設定の対象とすべきものとして規定されている。
正面以外の方向を向いている顔は、例えば顔ジェスチャを認識することが難しくなる。
また、このことから、正面以外の方向を向いている顔(被撮影者)は、操作者である可能
性は非常に低いといえる。このようなことに基づき、本実施形態では、上記の前提条件を
設定することとしている。
上記図8〜図12により説明した条件に従った優先度設定の一具体例について、図13
および図14を参照して説明する。
ここでの説明にあたり、先ず、優先動作としては、図12の顔Aが行う顔ジェスチャパ
ターンを採用する。また、図5により説明したように、両目を開いていた状態から片目を
閉じ、再び両目を開けるという一連の顔ジェスチャコマンドからなる顔ジェスチャパター
ンを、セルフタイマー撮影を指示する操作として規定する。そのうえで、ここで説明する
流れとしては、画枠内にて検出される顔Aと顔Bのうち、顔Aが、図12の顔ジェスチャ
パターンを行うことでジェスチャ認識対象となり、さらにこのジェスチャ認識対象とされ
た顔Aが、セルフタイマー撮影指示操作に応じた図5の顔ジェスチャパターンを行うとい
うものである。
図13,図14には、画枠300において検出されている2つの顔A,顔Bが示されて
いるが、その画内容は、図13(a)(b)(c)(d)、図14(a)(b)(c)の
順で時間経過に対応させたものとなっている。また、ここでは顔A、顔Bに対応する実物
の顔の大きさは同じであることとする。
図13(a)においては、先ず、顔A、顔Bともに目を開いている状態にある。また、
画枠内における顔サイズも同じであり、従って両者の被写体距離も同じ状態にある。また
、顔A、顔Bとも静止している状態にある。
そこで、この場合には、顔Aと顔Bについての画枠中心位置に対する距離の条件に基づ
いて優先度を設定する。図13(a)においては、顔Aのほうが顔Bよりも画枠の中心位
置に近いので、顔Aのほうに高い優先度を与えることとする。
ここでは、顔Aに対して優先度20を与え、顔Bには、優先度0を与えている。この優
先度としての値が大きいほど、設定された優先度が高いことを示す。
図13(a)に示す状態から或る時間が経過して、図13(b)に示す状態に変化した
とする。図13(b)においては、顔Aが片目(この場合は右目)を閉じるという顔ジェ
スチャによる優先動作を先に行ったが、顔Bのほうは図13(a)のときのまま両目を開
いている状態が示される。
この場合には、図11にて説明したように顔Aのほうに高い優先度が設定される。図1
3(b)では、図13(a)の状態から、顔Aのほうに優先度50を加算して優先度70
を設定し、顔Bについては特に優先度は加算せず優先度0のままとしている。
次に、図13(c)においては、顔Bは図13(a)のときから変わらず両目を開いた
ままとしているのに対して、顔Aは、図13(b)において片目を閉じたままの状態から
、さらに顔を左に傾けた状態が示されている。
これが、図12にて説明した、優先動作としての特定の顔ジェスチャパターンを行った
場合に相当する。そこでこの場合には、図13(b)のときから、さらに顔Aに対して優
先度50を加算して優先度120を設定する。顔Bには、依然として優先度0を設定する
ここで、デジタルスチルカメラ1は、そのとき設定されている優先度に基づいてジェス
チャ認識対象とする顔を設定する。ジェスチャ認識対象の顔とは、デジタルスチルカメラ
1が、操作に対応する顔ジェスチャパターンを認識する対象として設定している顔のこと
をいう。
そのうえで、例えば複数の顔のうちで優先度が100以上のものが1つもないときには
、これら全ての複数の顔についてジェスチャ認識対象として設定する。
これに対して、複数のうちの1つの顔について、優先度が100以上に至った場合には
、この優先度が100以上となった顔のみをジェスチャ認識対象として設定し、これ以外
の他の顔は、ジェスチャ認識対象から外すこととする。つまり、ジェスチャ認識対象を、
優先度が100以上となった1つの顔に固定する。そして、このジェスチャ認識対象の固
定は、その後において、その顔の優先度が100未満となるまで継続される。
なお、上記のようにしてジェスチャ認識対象が固定される期間(認識対象固定期間)に
おいても、図8〜図12に従った優先度の設定に関しては、画枠内にて検出されている各
顔について行っている。このために、認識対象固定期間において、ジェスチャ認識対象以
外の顔について100以上の優先度に至る結果となる場合がある。しかし、ジェスチャ認
識対象設定期間においては、あくまでも、はじめにジェスチャ認識対象として設定された
顔のみを固定的にジェスチャ認識対象とし、他の顔については、優先度が100以上に至
ったか否かにかかわらず認識対象とはしない。
ここで、図13(a)〜図13(c)までのあいだでのジェスチャ認識対象の設定内容
について確認しておく。
図13(a)においては、顔Aには優先度20が設定され、顔Bには優先度0が設定さ
れており、いずれも100未満となっている。つまり、優先度が100以上の顔は1つも
ない。このような状況では、全ての顔をジェスチャ認識対象として設定する。図13(b
)の場合も、図13(a)と同じく、全ての顔をジェスチャ認識対象として設定する。
そして、図13(c)に至ると、顔Aについて優先度120が与えられ、顔Bについて
優先度0が与えられている。従って、この場合には、顔Aのみをジェスチャ認識対象とし
て設定し、顔Bはジェスチャ認識対象外として設定することになる。
次に、図13(c)から或る時間が経過した図13(d)においては、顔Aの優先度は
120から100に小さくなるようにして変化している。これは、画枠の中心位置からの
距離についての顔Bとの相対的な差に基づいて設定された負の優先度−20が加算された
ことによる。しかし、100以上を維持しているので図13(c)のタイミングで設定さ
れたジェスチャ認識対象が継続して有効になっている。
また、図13(d)においては、顔Bが画枠300の中心に近づいたことにより、優先
度0の状態から優先度20が加算され、優先度20が設定されている。また、このときに
は顔Aに対して依然としてジェスチャ認識対象を設定しているので、顔Bも、図13(c
)からのジェスチャ認識対象外として設定された状態を継続する。
図13(d)から或る時間を経過したときの画枠内の状態は、図14(a)に示される

図14(a)においては、これ以前までは両目を開いていた顔Aが片目を閉じる顔ジェ
スチャを行っている。デジタルスチルカメラ1では、この片目を閉じる動作、つまり目つ
ぶりコマンドを認識することになる。これに応じて、顔Aの優先度は、50加算されるこ
とで100から150に増加しており、ジェスチャ認識対象としての固定設定が継続され
る。この場合の顔Bは優先度20で変化はしておらず、ジェスチャ認識対象外として設定
された状態を継続する。
図14(a)から或る時間を経過した図14(b)では、顔Aが片目を閉じていた状態
から再び両目を開く動作をしている。これにより、デジタルスチルカメラ1は、この動作
を目開きコマンドとして認識する。
ここでは、顔A,顔Bの優先度は、図14(a)と同じで変化しておらず、図14(a
)のときと同じく、顔Aがジェスチャ認識対象として設定され、顔Bがジェスチャ認識対
象外として設定されている。
そして、図14(a)(b)の流れによっては、顔Aにより、両目を開いた状態から片
目を閉じ、再び両目を開くという、セルフタイマー撮影指示操作に相当する顔ジェスチャ
パターンが行われたことになる。デジタルスチルカメラ1は、この顔ジェスチャパターン
を認識したことに応じて、セルフタイマー撮影の動作を実行する。
図14(c)は、セルフタイマー撮影の動作が完了した時点に対応する。このタイミン
グに応じては、先ず、顔Aの優先度を0にリセットする。つまり、顔ジェスチャパターン
による操作に応答した動作を完了したことに応じては、この顔ジェスチャパターンによる
操作を行った顔についての優先度を0にリセットするものとしている。また、画枠内にお
ける顔の位置などの条件は、図14(b)と同じであるので、顔Bについては、これまで
と同じ優先度20が設定されている。これにより、図14(c)では、顔A、顔Bのいず
れもがジェスチャ認識対象として設定されることになる。
5.実現構成例

続いて、これまでに述べてきた顔ジェスチャによるリモートコントロール(顔ジェスチ
ャ・リモートコントロール)を実現するための技術構成例について説明する。
図15は、本実施形態の顔ジェスチャ・リモートコントロール機能に対応するデジタル
スチルカメラ1のシステム構成例を示している。
この図に示されるシステム構成としては、信号処理部24における顔検出部61、顔画
像生成部62と、制御部27における顔情報評価部71、優先顔評価部72、及びリモコ
ン操作制御部73と、音声出力部35、LED部36から成るものとしている。
また、図16のフローチャートは、上記図15に示すシステムが実行する基本的な処理
の流れを示している。図15に示す各部の機能を、図16のフローチャートを併用しなが
ら説明する。
先ず、信号処理部24内の顔検出部61は、図16のステップS101として示すよう
に、撮像部位(光学系部21、イメージセンサ22)により撮像されてA/Dコンバータ
23を介して入力される画像データを入力して顔検出処理を実行する。つまり、画像デー
タとしての画枠内において存在する顔として認識される画像部分(顔画像部分)を検出す
る。
この顔画像検出処理の結果としては、検出した顔画像部分ごとについての画枠内におけ
る位置(重心)、及び画枠内におけるサイズの情報が得られる。顔検出部61は、これら
の情報を、顔検出情報として顔画像生成部62に渡す。
なお、顔検出部61に適用できる顔検出の方式、手法はいくつか知られているが、本実
施形態においてどの方式とするのかについては特に限定されるべきものではなく、検出精
度や設計難易度などを考慮して適当とされる方式が採用されればよい。
顔画像生成部62は、顔検出部61が入力するのと同じ画像データと、顔検出部61か
ら渡される顔検出情報とを入力する。そして、ステップS102として、顔検出情報が示
す顔画像部分の位置及びサイズの情報を利用して、画像データとしてのフレーム画像領域
から顔画像部分の領域を切り出す処理を実行する。ここでは、切り出されたフレーム画像
領域について「顔画像エリア」という。
顔画像生成部62は、顔画像エリアとしての画像データと、これに対応する顔検出情報
とを、制御部27における顔情報評価部71に対して渡す。
上記信号処理部24による顔検出処理は、DSP(Digital signal Processor)による画
像信号処理として実現できる。つまり、DSPに与えるプログラム、インストラクション
により実現できる。従って、信号処理部24内に備えられるとされる顔検出部61、顔画
像生成部62についても、DSPにより実現できることになる。
顔情報評価部71は、ステップS103として、受け取った顔画像エリアのデータを利
用して、その顔についての特徴量を評価(推定)する処理を実行する。なお、ステップS
103の処理は、検出された顔が複数の場合には、1つの顔に対応した評価を行うものと
なる。
ここで評価、推定する顔の特徴量は、例えば目の開閉状態、口の開閉状態、年齢、性別
、顔方向、顔の傾き、被写体距離などとなる。
ここでは、目の開閉状態の評価については、目が開いているか閉じているかについての
判定を行う。
口の開閉状態の評価については、口が開いているか閉じているかについての判定を行う

年齢については、所定の年齢幅により年齢を推定する。本実施形態では、例えば必要最
小限で、大人、子供の2段階による年齢の推定が可能であればよい。
性別については、男性、女性のいずれであるのかについて判定する。
顔方向は、デジタルスチルカメラ1に対して向いている方向を正面としたうえで、その
顔が向いている方向を判定する。本実施形態との対応では、最小限として、正面を向いて
いるとみなせる状態であるか否かについて判定できればよい。
顔の傾きは、例えば図4にて説明した顔の傾きについて判定する。例えば傾いていない
正立の状態、左に傾いた状態、右に傾いた状態のうちのいずれであるのかを判定するとう
にする。
被写体距離は、先に図8にて説明したように、デジタルスチルカメラ1から被写体まで
の距離であり、本実施形態では、同じ図8により説明したように、画枠内における顔画像
エリアのサイズにより推定できる。また、この際において、より高い精度で被写体距離を
求めるために、推定された年齢に応じて顔画像エリアごとにサイズの修正・正規化を行っ
たうえで、このサイズから被写体距離を求めるようにする。ここでは、これらの評価処理
の結果として得た情報を顔特徴量情報という。
なお、被写体距離については、例えば、撮像装置が焦点制御に用いる測距の手法、構成
を利用して求めるようにしても良い。このような測距の方式としては、例えば投光式三角
測距によるアクティブ方式、また、パッシブ方式などが知られている。
顔情報評価部71は、ステップS103としての1つの顔に対応した顔特徴量の評価処
理を実行すると、ステップS104により、検出された全ての顔についての評価が完了し
たか否かについての判別を行う。ここで、否定の判別結果が得られたのであれば、ステッ
プS103に戻り、次の顔画像エリアを対象とする顔特徴量評価の処理を実行する。
そして、全ての顔画像エリアについての評価が完了したとしてステップS104にて肯定
の判別結果が得られたのであれば、例えば、これまでの評価処理により得た顔画像エリア
ごとの顔特徴量情報を、優先顔評価部72に対して渡す。即ち、ステップS104からス
テップS105に進む。
優先顔評価部72は、先ず、ステップS105にて、顔情報評価部71から受け取った
顔特徴量情報の内容に基づいて、有効な顔特徴量情報が1つ以上得られているか否かにつ
いて判別する。例えば実際においては、顔検出処理によって顔が検出されたとしても、こ
れに応じて切り出された顔画像エリアのデータの画像内容が不鮮明であるために、有効な
顔特徴量情報が得られない可能性がある。有効な顔特徴量情報が1つもない場合、以降に
おいて、適切に顔ジェスチャを認識することはできない。
有効な顔特徴量情報が1つもないとしてステップS105として否定の判別結果を得た
場合には、ステップS101としての顔検出部61による顔検出処理に戻る。これに対し
て肯定の判別結果が得られたのであれば、ステップS106以降の処理に進む。
優先顔評価部72は、ステップS106により、有効な顔特徴量情報に対応する顔を対
象にして優先度(優先順位)を設定する処理を実行する。
この優先度設定の処理手順例については、図17〜図23により後述するが、例えば図
8〜図12により説明した設定条件のうちの少なくとも1つを採用して優先度を設定する
ステップS107として、操作制御部73は、設定された優先度に基づいて、ジェスチ
ャ認識対象とする顔画像エリアを選択する。そして、ジェスチャ認識対象として選択した
顔画像エリアについて、顔ジェスチャとしての動きについての認識処理を実行する。この
認識処理において、例えば図6、図7などにより説明した手法による目つぶり状態判定や
目開き状態判定などが行われる。
次に操作制御部73は、ステップS108として、顔画像エリアの動き(顔ジェスチャ
)に関して、操作に対応するパターン条件を満たしたか否かについて判別する。つまり、
上記ステップS107によるジェスチャ認識の結果、或る特定の操作に対応する顔ジェス
チャパターンが得られたか否かについて判別する。
ステップS108において否定の判別結果が得られたのであれば、ステップS111に
より、今回のステップS103により得られたとする有効な顔特徴量情報を記録して保持
するための処理を実行する。この特徴量情報の記録(書き込み)は、例えばRAM27に
対して行うようにすればよい。
ステップS106による優先度設定として、例えば図10の顔の移動速度、図11、図
12の顔ジェスチャの条件に基づく場合には、時間軸上での顔画像エリアの変化を検出す
る必要がある。このためには、今回検出された顔画像エリアについての情報のみではなく
、これより前の時刻に対応する情報も必要になる。ステップS111は、この前の検出タ
イミングに対応する顔画像エリアについての情報を確保することを目的に行われる。
ステップS111に続いては、例えば優先顔評価部72がステップS112により、ス
テップS106により設定した顔ごとの優先度に応じて、図16に示す処理に関する所定
のパラメータについての変更設定を行う。
ステップS112として、どのようなパラメータをどのようにして変更するのかについ
ては後述するが、このステップS112により、図16の処理はそのときに設定されてい
る優先度に対応して最適化されることになる。これにより、例えば操作者の誤認の確率を
低くして、顔ジェスチャ・リモートコントロールの信頼性を高めることができる。
また、ステップS108において肯定の判別結果が得られた場合にはステップS109
に進む。
ステップS109では、操作制御部73は、ステップS108に対応して認識した顔ジ
ェスチャパターンによる操作に応答したしかるべき動作が実行されるようにして制御する

そして操作に応答した動作が完了したとされると、ステップS110により、このとき
にジェスチャ認識対象として設定されていた顔画像エリアに設定されていた優先度を0に
リセットする。
この後は、例えば必要に応じて他のルーチンの処理を実行したうえで、ステップS10
1からの処理を繰り返す。
また、図17のフローチャートは、図16の処理と併行して優先顔評価部72と操作制
御部73が繰り返し実行するもので、音声、LEDの点灯により通知を行うための処理と
なる。
先ず、優先顔評価部72は、ステップS201により顔情報評価部71から受け取った
顔特徴量情報の内容に基づいて、有効な顔特徴量情報が1つ以上得られているか否かにつ
いて判別する。このステップS201の処理は、例えば図16におけるステップS105
と同じであり、ステップS105による処理結果をそのまま利用すればよい。
ここで否定の判別結果が得られた場合には、ステップS205にてLED部36のLE
Dを消灯させル制御を行ったうえで、この図に示す処理を抜け、しかるべきタイミングで
ステップS201に戻る。
これに対して、ステップS201にて肯定の判別結果が得られたのであれば、ステップ
S202によりLED部36のLEDを点灯させステップS203に進む。これにより、
図5の時点t1に対応したLEDの点灯が実現される。
ステップS203は、操作制御部73により、図16のステップS107によるジェス
チャ認識処理の結果に基づき、顔画像エリアの動き(顔ジェスチャ)が、顔ジェスチャと
して規定されたコマンド(例えば図5における目つぶりコマンドや目開きコマンドなど)
となる条件を満たしたか否かについて判別する。
ここで否定の判別結果が得られた場合には、この図に示す処理を抜けて、しかるべきタ
イミングでステップS201に戻る。
これに対して肯定の判別結果が得られたのであれば、ステップS204により、操作受
付音を出力する。これにより、図5の時点t3、時点t5に対応した通知音の出力が行わ
れることになる。
続いて、図16のフローチャートにおけるステップS106としての優先度設定処理に
ついて説明する。
この説明に先立ち、図16のステップS111にて記録される顔特徴量情報の内容例を
図18に示す。なお、ステップS111により記録される顔特徴量情報については、ステ
ップS103により得られる現時刻(今回の検出タイミング)の顔特徴量情報(現顔特徴
量情報)と区別するために、ここでは記録顔特徴量情報という。
この図においては、検出タイミングt1〜tnごとに対応してステップS111にて記
録される記録顔特徴量情報が示されている。ここでの1回の検出タイミングが、図16に
示されるステップS101〜S112までの1シーケンスを実行するタイミングに対応す
る。つまり、図6,図7における1回の検出タイミングDtに対応する。
1回の検出タイミングごとの記録顔特徴量情報は、情報項目として、顔ID、顔位置、
顔サイズ、目状態、口状態、年齢、性別、顔方向、顔傾き度、被写体距離(距離)から成
るものとしている。
顔IDは、有効な特徴量情報が検出された顔画像エリアごとに固有となるようにして割
り与えられる識別子であり、ここでは、1から昇順に従った番号が割り当てられる。この
顔IDに対応する顔ごとに、上記顔位置、顔サイズ、目状態、口状態、年齢、性別、顔方
向、顔傾き度、被写体距離の情報が対応つけられる構造となっている。
顔位置は、対応する顔画像エリアについての画枠内にて検出された位置を示すもので、
例えばここでは、顔枠に対して設定したx,y座標により表すものとしている。
顔サイズは、対応する顔画像エリアについての画枠内におけるサイズを示す。
目状態は、対応する顔画像エリアについて判定された目の状態として、開/閉のいずれ
であるのかを示す情報となる。なお、この場合には、片方の目の少なくともいずれか一方
が閉じている状態であると判定されれば、目状態としては閉じていることを示すものとす
る。
口状態は、対応する顔画像エリアについて判定された口の状態として、開/閉のいずれ
であるのかを示す情報となる。
年齢は、対応する顔画像エリアについて判定された年齢を示す。ここでは、年齢として
の数値により表している。
性別は、対応する顔画像エリアについて判定された性別が男性・女性のいずれであるの
かを示す。
顔方向は、対応する顔画像エリアについて判定された顔の向きを示すもので、ここでは
正面・右向き・左向きのいずれであるのかを示すこととしている。
顔傾き度は、顔の傾きを示すもので、ここでは度数により示されている。この傾き度と
しての値が0の場合には成立した状態を示し、例えば正・負の数の絶対値が大きくなるの
に応じて、それぞれ左・右への傾きの度合いが大きくなっていく。
被写体距離については、ここではcm単位により表している。
ステップS111においては、今回のステップS103により得られたとする有効な顔
特徴量情報として、例えばこの図18に示される構造による情報を記録する。なお、ステ
ップS111による記録の仕方として、例えば、その前の検出タイミングにおけるステッ
プS111により記録された記録顔特徴量情報を上書き消去するようにして、今回の顔特
徴量情報を記録すればよい。あるいは、現検出タイミングから所定回数分だけ過去の記録
顔特徴量情報を保持しておくこととして、今回の顔特徴量情報の記録に際しては、もっと
も過去の顔特徴量情報を上書きするようにして記録していくようにしてもよい。
このようにして記録顔特徴量情報として、過去の顔特徴量情報を保持しておくことで、
現検出タイミングにて得られた顔特徴量情報と比較することによって、顔の動きの変化を
認識することができる。
例えば図19には、検出タイミングt1〜t6ごとでの、顔ID=1の顔特徴量情報にお
ける目状態の項目を抜き出して示している。また、ここでは、検出タイミングt1〜t6
に対してそれぞれ、検出タイミングDt1,Dt2,Dt3,Dt1,Dt2,Dt3を対応させている。
このようにして時系列に従って目状態の検出結果を認識していくことで、例えばこの場
合には、検出タイミングt1〜t3までは目が開いている状態であるとして判定されるこ
とになる。次に、検出タイミングt4、t5では継続して目が閉じた状態が検出され、検
出タイミングt6において目が開いた状態が検出されている。ここで、検出タイミングt
4,t5,t6は、それぞれ、検出タイミングDt1,Dt2,Dt3に対応する。従って、図6の
説明に従い、この検出タイミングt4,t5,t6に対応する期間において、目つぶり状
態が判定されることになる。
図20のフローチャートは、優先顔評価部72が実行するものとされる、図16のステ
ップS106としての優先度設定処理としての手順例を示している。
先ず、優先顔評価部72は、ステップS301にて、今回のステップS103により得
られたとする有効な顔特徴量情報(現顔特徴量情報)に基づいて、所定の優先度設定条件
に対応させて、現顔特徴量情報が得られた顔ごとに、優先度として加算すべき加算値を予
め定めた規則に従って設定する。そして、求めた加算値を、これまで各顔に設定されてい
た優先度に対して加算し、優先度の変更を行う。
このステップS301にて加算値を設定する際に用いることのできる上記優先度設定条
件は、例えば図8〜図12により説明したもののうちでは、図8に示した顔画像エリアの
サイズに基づいた被写体距離と、図9に示した顔ごとの画枠内の中心位置に対する距離差
となる。
ステップS301においては、例えば、上記被写体距離と中心位置に対する距離差のい
ずれかを採用して加算値を求めるようにすることができる。もしくは、それぞれの優先度
設定条件ごとに加算値を求めてこれまでの優先度に加算する処理とすることもできる。
次のステップS302では、現時点において記録顔特徴量情報が保持されているか否か
について判別する。
ここで否定の判別結果が得られたのであれば、ステップS303〜S305はスキップ
してステップS306の手順に進む。これに対して、肯定の判別結果が得られたのであれ
ば、ステップS303〜S305の手順を実行してから、ステップS306に進む。
ここで説明するステップS303〜S305の手順は、例えば図10の顔の移動速度、
図11、図12の顔ジェスチャなどのようにして、顔画像エリアについての時系列的な変
化を検知、認識する必要のある優先度設定条件にしたがった優先度評価のための処理とな
る。
また、ここで説明するステップS303〜S305の手順は、例えば上記図10、図1
11,図12の各優先度設定条件について共通となる上位概念的な処理手順となる。図1
0、図11,図12の各優先度設定条件に対応した、より具体的な優先度評価の処理につ
いては、図21〜図23により後述する。
先ず、ステップS303においては、現顔特徴量情報と記録顔特徴量情報とにおける所
定の情報項目の内容について比較し、その比較結果を保持する。ここで比較する情報項目
の種類、及び数などは、優先度評価に用いる優先度設定条件に応じて異なってくる。
ステップS304においては、上記ステップS303により得られた比較結果を利用し
て、顔画像エリアごとについて、その動きを検出する。
なお、このステップS304において変化を検出すべき動きの内容に関しても、優先度
評価に用いる優先度設定条件に応じて異なってくる。
ステップS305においては、ステップS304の処理により検出された動きの結果に
基づいて顔ごとの加算値を求めたうえで、これまでの優先度に対して今回求めた加算値を
加算して優先度を更新する。
ステップS306においては、現在において、図13、図14により説明した閾値以上
の優先度を持つ顔が有るか否かについて判別する。ここで肯定の判別結果が得られた場合
には、図13、図14にて説明したようにして、閾値以上の優先度を持つ顔をジェスチャ
認識対象として設定する。
このようにしてジェスチャ認識対象が設定されている場合、ステップS108において
は、ジェスチャ認識対象の顔のみの顔画像エリアの動きのみを対象にして判別を行う。
一方、ステップS306において否定の判別結果が得られた場合には、ステップS30
8を実行したうえで、この図に示す処理を終了する。
ステップS308では、これまでにおいてジェスチャ認識対象として設定されていた顔
が有る場合には、このジェスチャ認識対象の設定を解除する処理となる。
図21のフローチャートは、上記図20におけるステップS303〜S305の処理、
すなわち、時系列における顔画像エリアの動きの変化に基づく優先度評価の処理として、
図10により説明した移動速度の優先度設定条件に対応させた場合の例を示している。
ここでは先ず、ステップS401により、予め定めた順序に従って選択した1つの記録
顔特徴量情報における顔位置の情報(記録顔位置情報)を抽出して取得する。つまり、現
時刻より過去の顔位置の情報を取得する。
ステップS402においては、今回のステップS103により取得された有効な顔特徴
量情報から顔位置の情報(現顔位置情報)を抽出して取得する。つまり、現時刻に対応す
る最新の顔位置の情報を取得する。
ステップS403においては、記録顔位置情報が示す位置からの現顔位置情報が示す位
置までの変位差を算出し、次のステップS404により、この変位差に基づいて顔の移動
速度を求める。
ステップS405では、全ての顔についての移動速度を求めたか否かを判別することと
している。ここで、まだ移動速度を求めていない顔が残っているとして否定の判別結果が
得られた場合には、ステップS401に戻ることで、次の顔についての移動速度を求める

これに対して、全ての顔についての移動速度を求めたとしてステップS405にて肯定
の判別結果が得られた場合には、ステップS406に進む。
ステップS406においては、これまでの処理によって求められたとする各顔の移動速
度を比較して、移動速度に応じた顔の順番を設定する。そして、ステップS407により
、例えば予め定めた規則に従って、移動速度が遅くなるのに応じて高くなるようにして、
各顔の加算値を設定し、この設定した加算値を加算して優先度の値を更新する。
図22のフローチャートは、図20におけるステップS303〜S305としての優先
度評価の処理として、図11により説明した、顔ジェスチャパターンを形成し得る動き要
素の1つ(例えば図6,図7にて認識される目つぶりコマンド、目開きコマンド)に相当
する顔の動きを優先動作条件とする場合の例を示している。
まず、ステップS501においては、記録顔特徴量情報を参照して、現検出タイミング
より1つ前の検出タイミングに至ってはじめて、優先動作条件を満足した顔(優先動作と
して規定される動きを行ったとされる顔)についての判定を行うようにする。このために
は、例えば1つ前の検出タイミングから所定回数の検出タイミング分の記録顔特徴量情報
を保持しておくこととして、例えば図19に示したようにして、これらの記録顔特徴量情
報における所要の情報項目における内容の変化をみるようにすればよい。例えば、ここで
の優先動作条件が、図11のとおりのものであるとすれば、記録顔特徴量情報における目
状態についての時間経過に従った変化をみることにより、目つぶりコマンド→目開きコマ
ンドの順による動作が得られているかどうかを判定することになる。そして、このような
判定を、各顔について行う。
ステップS502においては、ステップS501による判定結果から、優先動作条件を
満足した動きを完了させた顔が有ったか否かについて判別する。ここで、肯定の判別結果
が得られた場合には、前回の検出タイミングにおいて、後述するステップS505により
、既に優先動作条件を満たしたことに応じた優先度についての加算が行われている。そこ
で、この場合にはこの図に示す処理を抜けて、図20のステップS306に進む。
これに対して、ステップS502において否定の判別結果が得られたのであれば、ステ
ップS503に進む。
ステップS503においては、記録顔特徴量情報と現顔特徴量情報とを参照して、今回
の検出タイミング(現検出タイミング)に至ってはじめて優先動作条件を満足する動きを
完了させた顔が有ったか否かについて判別する。
ここで否定の判別結果が得られた場合には、この図に示す処理を抜けて図20のステッ
プS306に進む。この結果、今回の検出タイミングに応じては、優先度が加算(変更)
される顔は無いことになる。
これに対してステップS503にて肯定の判別結果が得られた場合にはステップS50
5の手順に進む。
ステップS505においては、現検出タイミングに至ってはじめて優先動作条件を満た
したと判定された顔について、例えば予め設定した加算値を加算して優先度を高くする。
図23のフローチャートは、図20におけるステップS303〜S305としての優先
度評価の処理として、図12により説明した、特定の顔ジェスチャパターンに相当する顔
の動きを優先動作条件とする場合の例を示している。
先ずステップS601、S602により、記録顔特徴量情報と現顔特徴量情報とを参照
して、各顔を対象にして、顔の動きについての判定を行う。
そして、この後、ステップS603により、現検出タイミングに至って、優先動作条件
として設定されている顔ジェスチャパターンの動きをした顔が有るか否かについて判別す
る。
ステップS603において否定の判別結果が得られた場合には、この図に示す処理を抜
けて、図20のステップS306に進む。これに対して、ステップS603において肯定
の判別結果が得られた場合にはステップS604に進む。
ステップS604においては、今回の検出タイミングにおいて、上記顔ジェスチャパタ
ーンとしての優先動作条件を満たしたものとして判定された顔について、予め設定した加
算値を加算して優先度を高く設定する。
図20におけるステップS303〜S305の処理としては、上記図21、図22、図
23に示した処理のうち、いずれか1つを採用してよい。また、図21、図22、図23
に示した処理における2以上を併用してステップS303〜S305としてもよい。この
ようにして、複数の優先度設定条件を併用したほうが、優先度設定についての信頼性は高
くなる。
次に、図16のステップS112の処理である、設定された優先度に対応したパラメー
タ設定の具体例として、第1例〜第3例について説明する。
先ず第1例としては、優先度が一定以上に高い顔については、図16のステップS10
1〜S112として示す1回の検出タイミングとしての処理を繰り返し実行する際の開始
時間の間隔(検出時間間隔)を短くするというものである。すなわち、この場合には、パ
ラメータとして検出時間間隔を変更する。
優先度が高い顔について検出時間間隔を短くすれば、それだけ、優先度の高い顔につい
て顔ジェスチャを認識できるのに要する時間も短縮することが可能になり、それだけ顔ジ
ェスチャ認識の結果を早く得ることができる。
また、第2例としては、優先度に応じて、優先動作に対応する顔の動きを検出する際に
用いる閾値を可変設定するものである。
図6,図7にて説明した検出タイミングごとにおける動き(状態)の検出にあたっては
、その検出すべき特定の動きごとについて、検出のための閾値が設定されている。例えば
目つぶり状態の検出に関すれば、まずは目の開き具合を数値化して検出し、この開き具合
を示す数値が閾値以下であるときに、目つぶりの状態であるとの検出結果を出力する。そ
こで、目つぶり検出については、例えば優先度が高くなるのに応じて、判定のための閾値
が小さくなるようにして設定する。
パラメータとして、このような閾値の可変設定を行えば、判定対象としている動きにつ
いての判定結果が得られやすくなる。
また、例えば信号処理部24や制御部27の処理能力などによっては、現実には、図1
6に示される1回の検出タイミングに応じた処理において、優先度評価を行うことのでき
る顔の最大数が制限される場合がある。
画枠内において有効な顔特徴量情報が検出された全て顔についての優先度評価を実行で
きない場合がある。この場合には、基本的には、1回の検出タイミングごとに異なる顔に
ついての優先度評価を行うようにして、これを循環させるようにしている。例えば、1回
の検出タイミングで最大3つの顔についての優先度評価が限度であるとして、6つの顔(
顔ID1〜6)が検出されているとする。この場合の基本的な処理としては、先の検出タ
イミングにより顔ID=1〜3までの顔についての優先度評価を実行し、次の検出タイミ
ングにより顔ID=4〜6までの顔についての優先度評価を実行し、これを繰り返し行う
ようにする。この場合、1つの顔についての検出頻度(単位時間あたりにおける検出回数
)は2回の検出タイミングごとに1回となる、つまり、1/2となる。
第3例では、優先度が一定以上に高いとされる顔については、パラメータとして上記の
検出頻度をより高くするようにして設定する。例えば上記の例の場合であれば、優先度が
一定以上に高い顔については1/2より大きな検出頻度として1を設定し、検出タイミン
グごとに優先度評価を行うようにするものである。
これにより、判定対象としている動きについての判定結果がより速く得られることにな
る。
図16のステップS112としては、例えば上記第1例〜第3例のうちから1つを選択
して採用することができる。あるいは、第1例〜第3例のうちから2以上を選択し、これ
らを併用したアルゴリズムとすることができる。
そして、このようにしてステップS112が実行されることで、次の検出タイミングに
おいては、変更されたパラメータに従った処理動作が得られることとなる。
上記した第1例〜第3例の制御は、いずれも、複数の顔が検出されている状況において
、設定された優先度(優先順位)に応じて、顔ごとに、顔ジェスチャを認識してもらえる
度合いが変化するものとなる。つまり、顔ジェスチャの判定についてのデジタルスチルカ
メラ1側での受容度(判定受容度)を変化させる処理であるといえる。そして、ステップ
S112として、このような処理が実行される結果、先にも述べたように、例えば顔ジェ
スチャ認識精度の向上、及び操作としての顔ジェスチャパターンに対するデジタルスチル
カメラ1の応答速度などの向上がはかられることになる。
先にも述べたように、顔ジェスチャ・リモートコントロールにより可能な操作について
は多様に考えることができる。
ここで、先に挙げた以外の例として、デジタルスチルカメラ1を雲台に取り付けた場合
に可能となる操作の例を述べておく。
先に図1により説明したように、デジタルスチルカメラ1を対応する雲台に取り付けた
状態では、デジタルスチルカメラ1と雲台との通信により、デジタルスチルカメラ1から
雲台のパン・チルト方向における移動を制御することができる。そこで、このことを利用
して、操作者が行った特定の顔ジェスチャパターンに対応しては、デジタルスチルカメラ
1は、その操作者を被写体とした最適構図の撮像視野が得られるようにしてパン・チルト
方向への移動が行われるようにして雲台を制御するように構成する。このような構成であ
れば、例えば単に撮像記録が行われるだけでなく、常に良い構図の写真(静止画像データ
)を記録していくことができる。
また、これまでにも述べてきたように、本願に基づく構成における少なくとも一部は、
CPUやDSPにプログラムを実行させることで実現できる。
このようなプログラムは、例えばROMなどに対して製造時などに書き込んで記憶させ
るほか、リムーバブルの記憶媒体に記憶させておいたうえで、この記憶媒体からインスト
ール(アップデートも含む)させるようにしてDSP対応の不揮発性の記憶領域やフラッシ
ュメモリ30などに記憶させることが考えられる。また、USBやIEEE1394など
のデータインターフェース経由により、他のホストとなる機器からの制御によってプログ
ラムのインストールを行えるようにすることも考えられる。さらに、ネットワーク上のサ
ーバなどにおける記憶装置に記憶させておいたうえで、デジタルスチルカメラ1にネット
ワーク機能を持たせることとし、サーバからダウンロードして取得できるように構成する
ことも考えられる。
なお、これまでの説明においては、操作に相当する顔ジェスチャパターンを認識するの
にあたり、単位コマンドとしては、目の開閉の動き(状態)と顔の傾き度とを利用するこ
ととしていた。しかし、例えば、図18に例示した顔特徴量情報には、口の開閉の状態を
示す情報などもある。従って、この口の開閉の状態も単位コマンドとして利用できる。さ
らに、そのうえで、特定の顔ジェスチャパターンについて、例えば年齢、性別などの顔ご
との属性の情報を組み合わせることも考えられる。これによっては、例えば男性か女性の
いずれかしか操作できないようにしたり、大人もしくは子供のいずれかしか操作できない
ようにすることができる。
また、これまでの説明では、顔のみの動きを対象にして操作に応じた動きを認識するこ
ととしているが、例えば手、腕、足、胴体など、顔以外の身体部分の動きを操作として認
識できるように構成することが考えられる。
また、この場合において、顔の動きと、他の身体部分の動きを組み合わせたジェスチャ
パターンを、特定の操作に対応させるようにすれば、例えば顔のみの場合よりも多くのジ
ェスチャパターンを考えることができる。つまり、より多様なリモートコントロール操作
が可能になる。
また、顔などのジェスチャを認識して操作として受け付けるという、操作入力のための
構成は、デジタルスチルカメラなどとしての撮像装置以外の装置やシステムにも適用する
ことができる。この際において、その構成や用途によっては、操作者の画像は、必ずしも
リアルタイムな撮像により得られているものである必要はない。
実施形態に対応するデジタルスチルカメラの内部構成例を示すブロック図である。 特定の操作に対応させることのできる顔ジェスチャパターンの例を示す図である。 特定の操作に対応させることのできる顔ジェスチャパターンの例を示す図である。 特定の操作に対応させることのできる顔ジェスチャパターンの例を示す図である。 顔ジェスチャパターンの認識処理例を示す図である。 顔ジェスチャパターンにおける目つぶりコマンドの認識処理例を示す図である。 顔ジェスチャパターンにおける目開きコマンドの認識処理例を示す図である。 顔サイズに応じた被写体距離を優先度設定条件とした場合の優先度設定例を示す図である。 画枠内中心位置までの顔の距離を優先度設定条件とした場合の優先度設定例を示す図である。 画枠内における顔の移動速度を優先度設定条件とした場合の優先度設定例を示す図である。 1つの顔ジェスチャコマンドを優先動作条件とした場合の優先度設定例を示す図である。 1つの顔ジェスチャパターンを優先動作条件とした場合の優先度設定例を示す図である。 図8〜図12の優先度設定条件に基づく優先度設定の一具体例を時間経過に従って示す図である。 図8〜図12の優先度設定条件に基づく優先度設定の一具体例を時間経過に従って示す図である。 実施形態の顔ジェスチャ・リモートコントロール機能に対応するデジタルスチルカメラのシステム構成例を示す図である。 図15のシステムが実行するものとされる顔ジェスチャ・リモートコントロール機能に対応する処理手順例を示すフローチャートである。 図15のシステムが実行するものとされる顔ジェスチャに対応した通知制御のための処理手順例を示すフローチャートである。 記録顔特徴量情報の内容例を示す図である。 記録顔特徴量情報の内容の時間経過に応じた変化例を示す図である。 優先度設定処理を示すフローチャートである。 優先度設定条件が移動速度である場合の優先度設定処理を示すフローチャートである。 優先動作条件が顔ジェスチャコマンドである場合の優先度設定処理を示すフローチャートである。 優先動作条件が顔ジェスチャパターンである場合の優先度設定処理を示すフローチャートである。 実施形態のデジタルスチルカメラに対応する雲台の正面図である。 実施形態のデジタルスチルカメラに対応する雲台の背面図である。 実施形態のデジタルスチルカメラに対応する雲台の左側面図である。 実施形態のデジタルスチルカメラに対応する雲台の右側面図である。 実施形態のデジタルスチルカメラに対応する雲台の平面図である。 実施形態のデジタルスチルカメラに対応する雲台の底面図である。
符号の説明
1 デジタルスチルカメラ、2 シャッターボタン、3 レンズ部、10 雲台、21
光学系、22 イメージセンサ、23 A/Dコンバータ、24 信号処理部、25
エンコード/デコード部、26 メディアコントローラ、27 制御部、28 ROM、
29 RAM、30 フラッシュメモリ、31 操作部、32 表示ドライバ、33 表
示部、34 雲台対応通信部、35 雲台対応部、36 LED部、40 メモリカード
、51 制御部、52 通信部、53 パン機構部、54 パン用モータ、55 パン用
駆動部、56 チルト機構部、57 チルト用モータ、58 チルト用駆動部、61 撮
像記録ブロック、62 構図判定ブロック、63 パン・チルト・ズーム制御ブロック、
64 通信制御処理ブロック

Claims (14)

  1. 像データの画内容において存在する被写体における所定の身体部分を検出する身体部分検出手段と、
    上記身体部分検出手段により上記身体部分が複数検出される場合において、これら複数の身体部分ごとに、優先度設定条件に対応する所定の状態について判定する状態判定手段と、
    上記状態判定手段の判定結果に基づいて、上記複数の身体部分ごとに優先度を設定する優先度設定手段と、
    上記身体部分検出手段により検出される身体部分により、操作に相当する所定の動きが行われたか否かについての判定を行うもので、上記優先度に基づいて設定した、判定対象とする身体部分についての判定受容度に従って判定を行う操作判定手段と、
    上記操作判定手段により上記操作に相当する所定の動きが行われたことが判定されたのに応じて、本操作入力装置の所定の動作が実行されるようにして制御する制御手段と、
    を備える操作入力装置。
  2. 上記状態判定手段は、上記身体部分ごとについての被写体距離を判定し、
    上記優先度設定手段は、上記被写体距離に基づいて上記複数の身体部分ごとに優先度を設定する、
    請求項1に記載の操作入力装置。
  3. 上記状態判定手段は、上記画像データに対応する画枠における上記身体部分のサイズに基づいて被写体距離について判定する、
    請求項2に記載の操作入力装置。
  4. 上記状態判定手段は、上記画像データに対応する画枠における、上記身体部分ごとについての当該画枠の中心位置までの距離を判定し、
    上記優先度設定手段は、上記距離に基づいて上記複数の身体部分ごとに優先度を設定する、
    請求項1乃至請求項3のいずれかに記載の操作入力装置。
  5. 上記状態判定手段は、上記画像データに対応する画枠における、上記身体部分ごとの移動速度を判定し、
    上記優先度設定手段は、上記移動速度に基づいて上記複数の身体部分ごとに優先度を設定する、
    請求項1乃至請求項4のいずれかに記載の操作入力装置。
  6. 上記状態判定手段は、上記身体部分が、予め優先度設定条件として定められた所定の動きとして、所定の単一の動きをしたか否かについて判定を行い、
    上記優先度設定手段は、上記の判定結果に基づいて優先度を設定する、
    請求項1乃至請求項5のいずれかに記載の操作入力装置。
  7. 上記状態判定手段は、上記身体部分が、予め優先度設定条件として定められた所定の動きとして、所定の複数の単一の動きを組み合わせて得られる所定の動きパターンが行われたか否かについて判定を行い、
    上記優先度設定手段は、上記の判定結果に基づいて優先度を設定する、
    請求項1乃至請求項5のいずれかに記載の操作入力装置。
  8. 上記操作判定手段は、上記優先度が閾値以上の身体部分があるときには、この身体部分のみを対象として判定を行う、
    請求項1乃至請求項7のいずれかに記載の操作入力装置。
  9. 上記優先度が一定以上の身体部分については、上記身体部分検出手段による身体部分の検出、及び操作判定手段による判定の実行を繰り返す時間間隔を、上記優先度が一定以下の身体部分よりも短く設定する、
    請求項1乃至請求項8のいずれかに記載の操作入力装置。
  10. 上記操作判定手段は、所定の動きを判定するのに利用する閾値を、優先度に応じて、身体部分ごとに変更する、
    請求1乃至請求項9のいずれかに記載の操作入力装置。
  11. 上記優先度が一定以上の身体部分については、上記身体部分検出手段による身体部分の検出、及び操作判定手段による判定についての単位時間あたりにおける回数を、上記優先度が一定以下の身体部分よりも多く設定する、
    請求項1乃至請求項10のいずれかに記載の操作入力装置。
  12. 上記操作判定手段は、所定の単一の動きについて判定する場合には、予め定めた時間間隔による検出タイミングごとに上記所定の単一の動きに対応する状態が得られたか否かについて判定し、a回の連続した検出タイミングにおいてb(a>b)回以上、上記単一の動きに対応する状態が得られたのであれば、上記所定の単一の動きが行われたとの認識結果を得るようにされ、さらに、この認識結果が、連続してc(cは1以上の自然数)回以上得られたときに、上記所定の単一の動きが行われたとの判定結果を得る、
    請求項1乃至請求項11のいずれかに記載の操作入力装置。
  13. 像データの画内容において存在する被写体における所定の身体部分を検出する身体部分検出手順と、
    上記身体部分検出手順により上記身体部分が複数検出される場合において、これら複数の身体部分ごとに、優先度設定条件に対応する所定の状態について判定する状態判定手順と、
    上記状態判定手順の判定結果に基づいて、上記複数の身体部分ごとに優先度を設定する優先度設定手順と、
    上記身体部分検出手順により検出される身体部分により、操作に相当する所定の動きが行われたか否かについての判定を行うもので、上記優先度に基づいて設定した、判定対象とする身体部分についての判定受容度に従って判定を行う操作判定手順と、
    上記操作判定手順により上記操作に相当する所定の動きが行われたことが判定されたのに応じて、本操作入力装置の所定の動作が実行されるようにして制御する制御手順と、
    を実行する操作入力方法。
  14. 像データの画内容において存在する被写体における所定の身体部分を検出する身体部分検出手順と、
    上記身体部分検出手順により上記身体部分が複数検出される場合において、これら複数の身体部分ごとに、優先度設定条件に対応する所定の状態について判定する状態判定手順と、
    上記状態判定手順の判定結果に基づいて、上記複数の身体部分ごとに優先度を設定する優先度設定手順と、
    上記身体部分検出手順により検出される身体部分により、操作に相当する所定の動きが行われたか否かについての判定を行うもので、上記優先度に基づいて設定した、判定対象とする身体部分についての判定受容度に従って判定を行う操作判定手順と、
    上記操作判定手順により上記操作に相当する所定の動きが行われたことが判定されたのに応じて、本操作入力装置の所定の動作が実行されるようにして制御する制御手順と、
    を操作入力装置に実行させるプログラム。
JP2008242609A 2008-09-22 2008-09-22 操作入力装置、操作入力方法、プログラム Active JP4561914B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008242609A JP4561914B2 (ja) 2008-09-22 2008-09-22 操作入力装置、操作入力方法、プログラム
US12/534,386 US8199208B2 (en) 2008-09-22 2009-08-03 Operation input apparatus, operation input method, and computer readable medium for determining a priority between detected images
CN2009101736562A CN101686329B (zh) 2008-09-22 2009-09-10 操作输入设备和操作输入方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008242609A JP4561914B2 (ja) 2008-09-22 2008-09-22 操作入力装置、操作入力方法、プログラム

Publications (2)

Publication Number Publication Date
JP2010074735A JP2010074735A (ja) 2010-04-02
JP4561914B2 true JP4561914B2 (ja) 2010-10-13

Family

ID=42037233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008242609A Active JP4561914B2 (ja) 2008-09-22 2008-09-22 操作入力装置、操作入力方法、プログラム

Country Status (3)

Country Link
US (1) US8199208B2 (ja)
JP (1) JP4561914B2 (ja)
CN (1) CN101686329B (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4636190B2 (ja) * 2009-03-13 2011-02-23 オムロン株式会社 顔照合装置、電子機器、顔照合装置の制御方法、および顔照合装置制御プログラム
JP5434339B2 (ja) * 2009-07-29 2014-03-05 ソニー株式会社 撮像制御装置、撮像システム、撮像方法、プログラム
JP5434338B2 (ja) 2009-07-29 2014-03-05 ソニー株式会社 撮像制御装置、撮像方法、プログラム
JP5757063B2 (ja) * 2010-03-29 2015-07-29 ソニー株式会社 情報処理装置および方法、並びにプログラム
US9104909B2 (en) * 2010-12-15 2015-08-11 Canon Kabushiki Kaisha Image processing apparatus and method of processing image
JP5627511B2 (ja) * 2011-03-03 2014-11-19 アイシン精機株式会社 状態推定装置、状態推定方法及びプログラム
US10895917B2 (en) * 2011-03-12 2021-01-19 Uday Parshionikar Multipurpose controllers and methods
JP5953714B2 (ja) * 2011-11-24 2016-07-20 セイコーエプソン株式会社 装置、頭部装着型表示装置、装置の制御方法および頭部装着型表示装置の制御方法
US9081416B2 (en) 2011-03-24 2015-07-14 Seiko Epson Corporation Device, head mounted display, control method of device and control method of head mounted display
JP6106921B2 (ja) 2011-04-26 2017-04-05 株式会社リコー 撮像装置、撮像方法および撮像プログラム
TWI423150B (zh) * 2011-06-14 2014-01-11 Altek Corp 拍照時間點之預測方法
US20130076898A1 (en) * 2011-08-01 2013-03-28 Richard Philippe Apparatus, systems, and methods for tracking medical products using an imaging unit
KR101906827B1 (ko) 2012-04-10 2018-12-05 삼성전자주식회사 연속 사진 촬영 장치 및 방법
JP6316540B2 (ja) * 2012-04-13 2018-04-25 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びその制御方法
CN103379269B (zh) * 2012-04-26 2017-11-24 富泰华工业(深圳)有限公司 拍摄系统、拍摄方法及使用该拍摄系统的电子设备
US9148537B1 (en) * 2012-05-18 2015-09-29 hopTo Inc. Facial cues as commands
US9395826B1 (en) 2012-05-25 2016-07-19 hopTo Inc. System for and method of translating motion-based user input between a client device and an application host computer
US8738814B1 (en) 2012-05-25 2014-05-27 hopTo Inc. System for and method of translating motion-based user input between a client device and an application host computer
US10229327B2 (en) * 2012-12-10 2019-03-12 Nec Corporation Analysis control system
JP6049448B2 (ja) * 2012-12-27 2016-12-21 キヤノン株式会社 被写体領域追跡装置、その制御方法及びプログラム
WO2014136521A1 (ja) * 2013-03-06 2014-09-12 Necカシオモバイルコミュニケーションズ株式会社 撮像装置、撮像方法及びプログラム
KR102068049B1 (ko) * 2013-05-13 2020-01-20 삼성전자주식회사 영상 처리 장치 및 영상 처리 방법
JP6316023B2 (ja) * 2013-05-17 2018-04-25 キヤノン株式会社 カメラシステム及びカメラ制御装置
CN104240277B (zh) * 2013-06-24 2019-07-19 腾讯科技(深圳)有限公司 基于人脸检测的增强现实交互方法和系统
DE102013212333A1 (de) * 2013-06-26 2014-12-31 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Überwachung einer Teileentnahme, Teilebereitstellungssystem, Verwendung eines Vibrationsalarmgeräts
US9525811B2 (en) * 2013-07-01 2016-12-20 Qualcomm Incorporated Display device configured as an illumination source
JP6319619B2 (ja) * 2013-12-17 2018-05-09 カシオ計算機株式会社 撮像装置、制御方法及びプログラム
CN104735357A (zh) * 2015-03-27 2015-06-24 天脉聚源(北京)教育科技有限公司 一种自动拍照的方法和装置
US10007845B2 (en) 2015-07-06 2018-06-26 Pixart Imaging Inc. Eye state detecting method and eye state detecting system
JP2017054241A (ja) * 2015-09-08 2017-03-16 株式会社東芝 表示制御装置、方法及びプログラム
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN105718887A (zh) * 2016-01-21 2016-06-29 惠州Tcl移动通信有限公司 基于移动终端摄像头实现动态捕捉人脸摄像的方法及系统
CN105894031A (zh) * 2016-03-31 2016-08-24 青岛海信移动通信技术股份有限公司 一种照片选择的方法及装置
JP2017208750A (ja) * 2016-05-20 2017-11-24 ローム株式会社 映像監視装置、映像表示システム、及び車両
JP6276340B2 (ja) * 2016-07-27 2018-02-07 京セラ株式会社 電子機器、制御方法及びプログラム
CN106681503A (zh) * 2016-12-19 2017-05-17 惠科股份有限公司 一种显示控制方法、终端及显示装置
US11050754B2 (en) * 2018-10-11 2021-06-29 Signify Holding B.V. Secure remote control of integrated controls for electrical devices
US11303877B2 (en) * 2019-08-13 2022-04-12 Avigilon Corporation Method and system for enhancing use of two-dimensional video analytics by using depth data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003338952A (ja) * 2002-05-20 2003-11-28 Sanyo Electric Co Ltd デジタルカメラ及びその画像処理方法
JP2005051472A (ja) * 2003-07-28 2005-02-24 Nikon Corp 自動撮影制御装置、自動撮影用プログラム、カメラ
JP2008042319A (ja) * 2006-08-02 2008-02-21 Sony Corp 撮像装置および方法、表情評価装置およびプログラム
JP2008193411A (ja) * 2007-02-05 2008-08-21 Fujifilm Corp 撮影制御装置、撮影装置、及び撮影制御方法
JP2008205838A (ja) * 2007-02-20 2008-09-04 Canon Inc 撮像装置及びその制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004294498A (ja) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd 自動撮影システム
JP4130641B2 (ja) * 2004-03-31 2008-08-06 富士フイルム株式会社 ディジタル・スチル・カメラおよびその制御方法
EP1755441B1 (en) * 2004-04-01 2015-11-04 Eyefluence, Inc. Biosensors, communicators, and controllers monitoring eye movement and methods for using them
JP2007028555A (ja) * 2005-07-21 2007-02-01 Sony Corp カメラシステム,情報処理装置,情報処理方法,およびコンピュータプログラム
JP4127297B2 (ja) * 2006-06-09 2008-07-30 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP4110178B2 (ja) * 2006-07-03 2008-07-02 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
TWI319680B (en) * 2006-08-30 2010-01-11 Face-detection-based remote-control system and method and face-detection-based remote-controllable multimedia system
JP2008072183A (ja) 2006-09-12 2008-03-27 Matsushita Electric Ind Co Ltd 撮像装置および撮像方法
JP4757173B2 (ja) * 2006-11-17 2011-08-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP4787180B2 (ja) * 2007-01-24 2011-10-05 富士フイルム株式会社 撮影装置及び撮影方法
JP4974704B2 (ja) * 2007-02-22 2012-07-11 パナソニック株式会社 撮像装置
US8023699B2 (en) * 2007-03-09 2011-09-20 Jiris Co., Ltd. Iris recognition system, a method thereof, and an encryption system using the same
JP5060233B2 (ja) * 2007-09-25 2012-10-31 富士フイルム株式会社 撮像装置およびその自動撮影方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003338952A (ja) * 2002-05-20 2003-11-28 Sanyo Electric Co Ltd デジタルカメラ及びその画像処理方法
JP2005051472A (ja) * 2003-07-28 2005-02-24 Nikon Corp 自動撮影制御装置、自動撮影用プログラム、カメラ
JP2008042319A (ja) * 2006-08-02 2008-02-21 Sony Corp 撮像装置および方法、表情評価装置およびプログラム
JP2008193411A (ja) * 2007-02-05 2008-08-21 Fujifilm Corp 撮影制御装置、撮影装置、及び撮影制御方法
JP2008205838A (ja) * 2007-02-20 2008-09-04 Canon Inc 撮像装置及びその制御方法

Also Published As

Publication number Publication date
US20100073497A1 (en) 2010-03-25
US8199208B2 (en) 2012-06-12
JP2010074735A (ja) 2010-04-02
CN101686329B (zh) 2011-11-16
CN101686329A (zh) 2010-03-31

Similar Documents

Publication Publication Date Title
JP4561914B2 (ja) 操作入力装置、操作入力方法、プログラム
US11729487B2 (en) Image pickup apparatus and control method therefor
US9147106B2 (en) Digital camera system
KR100924685B1 (ko) 촬상 장치 및 그 제어 방법
US11812132B2 (en) Imaging device, control method therefor, and recording medium
JP6641447B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
US10547774B2 (en) Image processing device, image processing method, and program
US20120275648A1 (en) Imaging device and imaging method and program
CN111294488B (zh) 摄像设备及其控制方法和存储介质
JP6641446B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、記憶媒体
JP2004320287A (ja) デジタルカメラ
US20230362472A1 (en) Image pickup apparatus and control method therefor
KR20120052238A (ko) 제어 장치, 촬상 시스템, 제어 방법, 프로그램
JP4670521B2 (ja) 撮像装置
JP2019110509A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2009117975A (ja) 撮影装置および撮影方法
JP2007094535A (ja) 認証システム及び認証方法
US11818457B2 (en) Image capturing apparatus, control method therefor, and storage medium
JP2021150760A (ja) 撮像装置およびその制御方法
TW201421138A (zh) 數位相機及數位相機之影像擷取方法
JP7342883B2 (ja) 撮像制御装置、撮像装置、撮像制御方法
JP6492483B2 (ja) 検出装置、検出方法及びプログラム
US20230034719A1 (en) Image capture apparatus, control method, and computer-executable medium
JP2024033747A (ja) 撮像装置、撮像装置の制御方法、プログラム
JP2023141001A (ja) 探索制御装置、撮像装置および探索制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4561914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250