JP4561914B2 - 操作入力装置、操作入力方法、プログラム - Google Patents
操作入力装置、操作入力方法、プログラム Download PDFInfo
- Publication number
- JP4561914B2 JP4561914B2 JP2008242609A JP2008242609A JP4561914B2 JP 4561914 B2 JP4561914 B2 JP 4561914B2 JP 2008242609 A JP2008242609 A JP 2008242609A JP 2008242609 A JP2008242609 A JP 2008242609A JP 4561914 B2 JP4561914 B2 JP 4561914B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- priority
- body part
- predetermined
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Description
方法に関する。また、操作入力装置が実行するプログラムに関する。
開いた状態から一方の目が閉じられた後に両目が開いた状態になる動きを検出したときに
シャッターを切って静止画を撮影するようにした構成が記載されている。これにより、遠
隔操作により被撮影者の望むタイミングで撮影が行えるようにしようというものである。
装置などの装置をリモートコントロール(遠隔操作)しようというものである。そのうえ
で、このような装置についてより実用性、有用性が高いものが得られるようにすることを
目的とする。
つまり、画像データの画内容において存在する被写体における所定の身体部分を検出する身体部分検出手段と、この身体部分検出手段により上記身体部分が複数検出される場合において、これら複数の身体部分ごとに、優先度設定条件に対応する所定の状態について判定する状態判定手段と、この状態判定手段の判定結果に基づいて、上記複数の身体部分ごとに優先度を設定する優先度設定手段と、上記身体部分検出手段により検出される身体部分により、操作に相当する所定の動きが行われたか否かについての判定を行うもので、上記優先度に基づいて設定した、判定対象とする身体部分についての判定受容度に従って判定を行う操作判定手段と、この操作判定手段により上記操作に相当する所定の動きが行われたことが判定されたのに応じて、本操作入力装置の所定の動作が実行されるようにして制御する制御手段とを備えることとした。
そのうえで、上記特定の身体部分についての所定の状態に応じて優先度を設定し、操作に相当する動きの判定に際しては、この優先度に応じた判定の受容度を反映させるようにする。これにより、複数の被写体に対応する身体部分のうち、或る身体部分については動きの判定が行われやすく、或る身体部分については動きの判定がされにくくするようにできる。
置として、これまでよりも実用性が高く、有用なものが得られる。
の順により説明する。
1.デジタルスチルカメラの構成
2.顔ジェスチャパターン例
3.顔ジェスチャ認識処理例
4.優先度設定
5.実現構成例
図1は、本実施形態の撮像装置であるデジタルスチルカメラ1の内部構成例を示してい
る。
この図において、先ず、光学系部21は、例えばズームレンズ、フォーカスレンズなど
も含む所定枚数の撮像用のレンズ群、絞りなどを備えて成り、入射された光を撮像光とし
てイメージセンサ22の受光面に結像させる。
また、光学系部21においては、上記のズームレンズ、フォーカスレンズ、絞りなどを
駆動させるための駆動機構部も備えられているものとされる。これらの駆動機構部は、例
えば制御部27が実行するとされるズーム(画角)制御、自動焦点調整制御、自動露出制
御などのいわゆるカメラ制御によりその動作が制御される。
いわゆる光電変換を行う。このために、イメージセンサ22は、光学系部21からの撮像
光を光電変換素子の受光面にて受光し、受光された光の強さに応じて蓄積される信号電荷
を、所定タイミングにより順次出力するようにされる。これにより、撮像光に対応した電
気信号(撮像信号)が出力される。なお、イメージセンサ22として採用される光電変換素
子(撮像素子)としては、特に限定されるものではないが、現状であれば、例えばCMO
SセンサやCCD(Charge Coupled Device)などを挙げることができる。また、CMOS
センサを採用する場合には、イメージセンサ22に相当するデバイス(部品)として、次に
述べるA/Dコンバータ23に相当するアナログ−デジタル変換器も含めた構造とするこ
とができる。
ることで、デジタル信号に変換され、信号処理部24に入力される。
信号処理部24では、A/Dコンバータ23から出力されるデジタルの撮像信号につい
て、例えば1つの静止画 (フレーム画像)に相当する単位で取り込みを行い、このように
して取り込んだ静止画単位の撮像信号について所要の信号処理を施すことで、1枚の静止
画に相当する画像信号データである撮像画像データ(撮像静止画像データ)を生成するこ
とができる。
体であるメモリカード40に記録させる場合には、例えば1つの静止画に対応する撮像画
像データを信号処理部24からエンコード/デコード部25に対して出力するようにされ
る。
エンコード/デコード部25は、信号処理部24から出力されてくる静止画単位の撮像
画像データについて、所定の静止画像圧縮符号化方式により圧縮符号化を実行したうえで
、例えば制御部27の制御に応じてヘッダなどを付加して、所定形式に圧縮された撮像画
像データの形式に変換する。そして、このようにして生成した撮像画像データをメディア
コントローラ26に転送する。メディアコントローラ26は、制御部27の制御に従って
、メモリカード40に対して、転送されてくる撮像画像データを書き込んで記録させる。
この場合のメモリカード40は、例えば所定規格に従ったカード形式の外形形状を有し、
内部には、フラッシュメモリなどの不揮発性の半導体記憶素子を備えた構成を採る記憶媒
体である。なお、画像データを記憶させる記憶媒体については、上記メモリカード以外の
種別、形式などとされてもよい。
被写体における身体部分の1つである顔を検出するための画像処理(顔検出処理)を実行
することも可能とされている。本実施形態における顔検出処理がどのようなものであるの
かについては後述する。
て表示部33により画像表示を実行させることで、現在撮像中の画像であるいわゆるスル
ー画を表示させることが可能とされる。例えば信号処理部24においては、先の説明のよ
うにしてA/Dコンバータ23から出力される撮像信号を取り込んで1枚の静止画相当の
撮像画像データを生成するのであるが、この動作を継続することで、動画におけるフレー
ム画像に相当する撮像画像データを順次生成していく。そして、このようにして順次生成
される撮像画像データを、制御部27の制御に従って表示ドライバ32に対して転送する
。これにより、スルー画の表示が行われる。
データに基づいて表示部33を駆動するための駆動信号を生成し、表示部33に対して出
力していくようにされる。これにより、表示部33においては、静止画単位の撮像画像デ
ータに基づく画像が順次的に表示されていくことになる。これをユーザが見れば、そのと
きに撮像しているとされる画像が表示部33において動画的に表示されることになる。つ
まり、スルー画像が表示される。
を再生して、その画像を表示部33に対して表示させることも可能とされる。
このためには、制御部27が撮像画像データを指定して、メディアコントローラ26に
対してメモリカード40からのデータ読み出しを命令する。この命令に応答して、メディ
アコントローラ26は、指定された撮像画像データが記録されているメモリカード40上
のアドレスにアクセスしてデータ読み出しを実行し、読み出したデータを、エンコード/
デコード部25に対して転送する。
ーラ26から転送されてきた撮像画像データから圧縮静止画データとしての実体データを
取り出し、この圧縮静止画データについて、圧縮符号化に対する復号処理を実行して、1
つの静止画に対応する撮像画像データを得る。そして、この撮像画像データを表示ドライ
バ32に対して転送する。これにより、表示部33においては、メモリカード40に記録
されている撮像画像データの画像が再生表示されることになる。
に、ユーザインターフェイス画像も表示させることができる。この場合には、例えばその
ときの動作状態などに応じて制御部27が必要なユーザインターフェイス画像としての表
示用画像データを生成し、これを表示ドライバ32に対して出力するようにされる。これ
により、表示部33においてユーザインターフェイス画像が表示されることになる。なお
、このユーザインターフェイス画像は、例えば特定のメニュー画面などのようにスルー画
像や撮像画像データの再生画像とは個別に表示部33の表示画面に表示させることも可能
であるし、スルー画像や撮像画像データの再生画像上の一部において重畳・合成されるよ
うにして表示させることも可能である。
もので、ROM28、RAM29などとともにマイクロコンピュータを構成する。ROM
28には、例えば制御部27としてのCPUが実行すべきプログラムの他、デジタルスチ
ルカメラ1の動作に関連した各種の設定情報などが記憶される。RAM29は、CPUの
ための主記憶装置とされる。
また、この場合のフラッシュメモリ30は、例えばユーザ操作や動作履歴などに応じて
変更(書き換え)の必要性のある各種の設定情報などを記憶させておくために使用する不揮
発性の記憶領域として設けられるものである。なおROM28について、例えばフラッシ
ュメモリなどをはじめとする不揮発性メモリを採用することとした場合には、フラッシュ
メモリ30に代えて、このROM28における一部記憶領域を使用することとしてもよい
。
対して行われた操作に応じた操作情報信号を生成してCPUに出力する操作情報信号出力
部位とを一括して示している。制御部27は、操作部31から入力される操作情報信号に
応じて所定の処理を実行する。これによりユーザ操作に応じたデジタルスチルカメラ1の
動作が実行されることになる。
けることが可能とされている。雲台は、パン(横、水平)方向及びチルト(縦、垂直)方向
に沿って、それぞれ、回転軸を中心にして回転するようにして移動可能とされている。こ
れにより、デジタルスチルカメラ1が載置された状態で雲台が移動することによっては、
デジタルスチルカメラ1により撮像できる視野範囲が水平方向及び垂直方向により変更さ
れることになる。
そして、雲台に載置された状態において、デジタルスチルカメラ1は、有線又は無線に
より雲台と通信を行うことが可能とされている。これにより、例えばデジタルスチルカメ
ラ1により、パン位置、チルト位置を指定するようにして、雲台10の動きを制御するこ
とが可能となる。
方式に従った通信を実行する部位であり、例えばデジタルスチルカメラ1が雲台10に対
して取り付けられた状態において、雲台10側の通信部との間での有線若しくは無線によ
る通信信号の送受信を可能とするための物理層構成と、これより上位となる所定層に対応
する通信処理を実現するための構成とを有して成る。
出力する部位である。
LED部36は、例えばデジタルスチルカメラ1の筐体前面部に表出して設けられるL
ED(Light Emitting Diode)と、このLEDを点灯駆動する回路部などから成り、制御部
27の制御に応じて、LEDを点灯、消灯する。
を図24〜図29に示しておく。
図24は、雲台10の正面図を示す。図25は、雲台10の背面図を示す。図26は、
雲台10の左側面図を示す。図27は、雲台10の右側面図を示す。図28は、雲台10
の平面図を示す。図29は、雲台10の底面図を示す。
2.顔ジェスチャパターン例
本実施形態のデジタルスチルカメラ1は、そのときの撮像画像において検出されている
人の顔についての所定の動きのパターンに応答して、この所定の動きに予め対応して決め
られている動作を実行する。つまり、ユーザは、デジタルスチルカメラ1により自身の顔
を撮像させている状態において、例えばウィンクであるとか顔を傾けるなど、自身の顔に
ついて所定のパターンにより動かすことにより、デジタルスチルカメラ1の動作をリモー
トコントロールすることができる。
なお、以降においては、リモートコントロールのための顔の動きについては顔ジェスチ
ャということにする。
チャパターン)例について示しておく。
図2〜図4には、リモートコントロール操作を行うユーザ(操作者)の顔が模式的に示さ
れる。
図2においては、先ず、操作者が両目を開けている状態から片目(この場合には右目)を
閉じ、この後再び閉じた片目を開いて両目が開いた状態にする、という顔ジェスチャパタ
ーンが示されている。
図3においては、操作者が両目を開けている状態から両目を閉じ、この後再び両目を開
いた状態にする、という顔ジェスチャパターンが示されている。
図4においては、先ずは、顔の傾かせずにまっすぐに正立させて目を開いた状態から片
目(右目)を閉じ、さらにこの片目を閉じた状態を維持しながら、顔を左(紙面では右とな
る)に傾ける、という顔ジェスチャパターンが示されている。
若しくは両目が閉じられる、顔が傾くなどの単一的な動き(状態)の要素が考えられる。
顔ジェスチャパターンは、1又は複数による上記単一の動きの要素から構成されるもので
、複数の単一の動きの要素により構成する場合には、これらの単一の動きの要素を所定の
規則に従って組み合わせたものとなる。
そして、このようにして作られる顔ジェスチャパターンごとに、デジタルスチルカメラ
1が実行すべき所定の動作を割り当てるようにするものである。つまり、或る特定の1つ
の顔ジェスチャパターンが、リモートコントロール装置が送信する或る特定の命令内容を
示すコマンドコードに相当するものとなる。
なお、上記単一の動きについては、顔ジェスチャパターン、すなわちコマンドを構成す
る最小単位であることに因み、単位コマンドともいう。
えば、静止画による撮像画像の記録、セルフタイマーによる記録、連写撮影記録、動画に
よる撮像画像の記録開始・停止、フラッシュのオン・オフ切り換えなどをはじめ、多様に
考えることができる。
また、後述もするようにして、顔ジェスチャによっては、デジタルスチルカメラ1側で
顔ごとに設定する優先度を意図的に高くさせるなど、デジタルスチルカメラ1の撮像に関
する動作とは直接関係のない動作についても操作することができる。
続いては、デジタルスチルカメラ1が実行する、顔ジェスチャパターンについての認識
処理の例について、図5〜図7を参照して説明する。
ここでの説明にあたっては、図2に示した顔ジェスチャパターンを、セルフタイマー撮
影の操作コマンドとして割り当てた場合を例に挙げることとする。
きが撮像方向(光学系の光軸)に対してほぼ真向かいとなるようにする。このときには、
通常に両目を開いた状態でよい。なお、この通常に両目を開いた状態においては、瞬きは
していても構わない。後述するようにして本実施形態の動きの認識処理によっては、瞬き
としての目の動きと、操作のために意識的に行われる目の開閉の動きとを弁別できるよう
になっている。
て示すように、このときの撮像画像データから撮像されている操作者の顔を正常に認識す
る。そして、このようにして顔を認識すると、顔を認識したことをユーザに通知するため
に、LED部36のLEDを点灯させる。これにより、操作者は、以降において、自身が
顔ジェスチャを行えば、デジタルスチルカメラ1がこれをコマンドとして受け付けてくれ
る状態にあることを知ることができる。
撮影のために、先ず、片目を閉じる。そして、時点t1において最初に目を閉じてから、
ほぼ0.6秒が経過するまで、この目を閉じた状態を継続させると、デジタルスチルカメ
ラ1においては、今回の片目を閉じた顔の動作が、リモートコントロールのための顔ジェ
スチャパターンを成す単一の動作、状態の要素、即ち単位コマンド(目つぶりコマンド)
であることを認識する。そして、時点t3として示すように、目つぶりコマンドを認識し
たことに応じて、デジタルスチルカメラ1は、音声出力部35から目つぶりコマンドを認
識したことをユーザ側に通知するための音(通知音)を出力する。
ここでは、目つぶりコマンドの認識のためには、0.6秒以上にわたって片目を閉じた
状態を維持することが必要であるとしている。これにより、例えば瞬きにより目が閉じら
れるときとの弁別を行い、瞬きを目つぶりコマンドとして誤認識しないようにしている。
なお、この目つぶりコマンドの認識のための期間(目つぶりコマンド認識期間)を0.6
秒としているのは、本願発明者等が検討した結果、妥当であるとして得られた時間長では
ある。しかし、あくまでも一例であって、目つぶりコマンド認識期間として必要な時間長
は特に限定されるものではない。
行った目を閉じた動作が単位コマンドとして受け付けられたことを知る。そこで、操作者
は、顔ジェスチャパターンを成す次の単位コマンドとして、これまで開いていた目を開く
。
このようにして目が開かれたことに応じては、デジタルスチルカメラ1は、図7により
後述するようにして、今回の片目を閉じた顔の動作が、リモートコントロールのための顔
ジェスチャパターンを成す単位コマンド(目開きコマンド)であることを認識する。これ
に応じて、デジタルスチルカメラ1は、時点t4として示すように、時点t3の場合と同
様にして通知音を出力する。また、ここまでの顔ジェスチャが行われた段階で、デジタル
スチルカメラ1は、両目を開いた状態→片目を閉じた状態→両目を開いた状態という、図
2に示したのと同じ単位コマンドの組み合わせ方による顔ジェスチャパターンであること
を判定する。つまり、この判定結果に従って、デジタルスチルカメラ1は、時点t4にて
、セルフタイマー撮影の操作入力が行われたものとして判断することになる。
そこで、デジタルスチルカメラ1は、時点t4から予め設定されたセルフタイマー期間
としての時間(例えば2秒程度)だけ待機する。この間、操作者は、ポーズなどを取った
り表情を作るなどして準備しておくことができる。そして、このセルフタイマー期間が完
了したとされる時点t5に至ると、そのときに撮像されている画像を静止画として記録す
る動作が実行される。
認識のための検出処理を示している。
ここでは、先ず、時点t0において操作者が片目を閉じたとする。また、デジタルスチ
ルカメラ1においては、0.1秒の検出時間間隔intごとのサイクルで、顔ジェスチャに対応
する顔の状態(顔状態)を検出することとしている。また、顔状態の検出は、0.1秒ごと
に連続3回の検出が1セットとなる。つまり、1セットの検出は、図示するようにして1回目
の検出タイミングDt1と、その0.1秒後となる2回目の検出タイミングDt2と、さらにその0
.1秒後となる3回目の検出タイミングDt3から成る。そして、この1セット分の検出を繰り
返す。
この場合、時点t0からほぼ0.1秒が経過した時点t1とこれに続く時点t2,t3が1
セットとなっている。目つぶりコマンドの判定においては、先ず、1セットを成す3回の検
出タイミングのうち、2回以上の検出タイミングにより顔状態が目つぶりであるとして検
出されると、目つぶりの状態であるとみなす判定を行う。つまり、図6の場合であれば、
時点t3において、1回目の目つぶり状態であるとの判定結果が得られる(目つぶり状態
判定1)
点t4と、これに続く時点t5、t6により、次の2回目の1セットによる顔状態の検出
が行われることになる。そして、この場合においては、この時点t4,t5,t6による
セットにおいても、2回以上の検出タイミングにより顔状態が目つぶりであるとして検出
され、目つぶり状態であるとの判定結果が得られたとする(目つぶり判定2)
り状態であるとの判定結果が得られることとしている。従って、図6の場合には、時点t
6において、目つぶりコマンドであることが認識されることになる(目つぶりコマンド判
定)。
ぶり状態であるとして判定されることはほとんどない。このような目つぶりコマンドの認
識処理としていることで、本実施形態では、操作者が意図的に行う目つぶりコマンドとし
ての目の動きと、無意識に短時間で行われる瞬きとしての目の動きとをほぼ確実に弁別で
きるようにしている。
を認識するための検出処理を示している。
この図において時点t7は、図6に示した時点t6から或る時間が経過した時点となる
もので、操作者は、時点t6まで維持していた片目を閉じた状態を、この時点t7に至っ
たときにも継続しているものとする。
また、この時点t7は、1セットにおける3回目の検出タイミングDt3とされており、
この結果、時点t7においては、n-1回目の目つぶり状態であるとの判定結果が得られた
ものとする。また、このときには、時点t6にてはじめて認識された目つぶりコマンドが
、まだ継続しているものとして認識されている。
さらに、この時点t7に続く時点t8,t9,t10の検出タイミングから成るセット
においても、操作者の片目を閉じた状態が継続されていたことで、時点t10の段階で、
n-1回目の目つぶり状態であるとの判定結果が得られたものとする。これに応じて、時点
10においても、時点t6にて認識された目つぶりコマンドが継続しているものとして認
識される。
t11,t12の各検出タイミングDt1,Dt2では、片目を閉じていると認識したが、時点
t12経過の直後に操作者が閉じていた片目を開いて両目が開かれた状態になったとする
。すると、このセットにおいて3回目となる時点t13の検出タイミングDt3において、顔
状態は両目が開かれている状態であるとの検出結果が得られることになる。
のようにして、3回の検出タイミングのうち、少なくとも1回の検出タイミングにおいて
目が開いていることが検出されたとすると、そのセットは目開きコマンドであるとして認
識する。
あるとの検出結果となるセットが2回連続することを条件としていた。
これに対して、目開きコマンドの認識に関しては、少なくとも1回の検出タイミングで
目開き状態であることが検出されれば、その1セットのみにより、ただちに目開きコマン
ドであると認識するようにしている。本願発明者等は、目開きコマンドについて上記の条
件を設定しさえしておけば、目開きコマンドついては、図7の条件であっても、高い精度
で認識できることを確認している。これにより、目開きコマンドの認識のための認識期間
については短いものとなるので、それだけ、顔ジェスチャによるコマンドに対するデジタ
ルスチルカメラ1の応答も速くすることができる。
上記したデジタルスチルカメラ1による顔ジェスチャの認識処理は、例えば撮像画像の
画枠において1つの顔のみが検出されている場合であれば、この1つの顔のみを認識対象
とすればよいので、特に問題にはならない。
しかし、例えば複数の被写体が撮像されていることに応じて、画枠内に複数の顔が検出
されている状態においては次のような問題を生じる。
先に図2にて説明したように、本実施形態における顔ジェスチャパターンを形成する要
素(単位コマンド)は、目を閉じる、目を開く、顔を傾けるなどの動作などが対応する。
人がこのような動作を意識せずにしてしまう可能性のあることは否定できない。このため
に、操作者以外の被撮影者がたまたま何らかの操作に相当する顔ジェスチャと同じ顔の動
きをしてしまった場合には、その顔ジェスチャに応答してデジタルスチルカメラ1が動作
してしまうことになる。つまり、被撮影者が複数の場合には、操作者以外の被撮影者がた
またま顔ジェスチャによる操作を行ってしまい、本来望んでいない誤った動作をデジタル
スチルカメラ1が実行してしまう不都合が生じる可能性がある。そこで本実施形態では、
上記の不都合を下記のようにして回避する。
ている顔が複数の場合には、これらの顔ごとについて、以下に述べる各条件に従って優先
度(優先順位)を与える。そして、顔ごとについての顔ジェスチャによる操作が判定、認
識されやすくする度合い(判定受容度)を、設定された優先度に応じて変更できるように
した。
先度設定条件)例について説明する。なお、これらの図においては、説明を分かりやすく
簡単なものとすることの便宜上、画枠300内において検出されている顔は2つである場
合を例に挙げている。
ている。これらの顔A、顔Bを画枠300内におけるサイズについてみると、顔Bよりも
顔Aのほうが大きい。例えば、説明を分かりやすくするために、顔Aと顔Bの実物サイズ
が同じであるとする。すると、図8においては、そのサイズが大きい顔Aのほうが顔Bよ
りも、被写体距離が短い、すなわち、デジタルスチルカメラ1により近いことになる。こ
こでの被写体距離とは、デジタルスチルカメラ1からその被写体物までの距離をいう。複
数の顔(被写体)のうちで、操作者となるべき者は、デジタルスチルカメラ1により近い
位置にいる可能性が高い。そこで、本実施形態では、優先度設定の条件の1つとして、被
写体距離が近い顔、すなわち、画枠内においてサイズが大きい顔ほど、優先度を高く設定
することとした。図8の場合には、顔Bよりも顔Aのほうに高い優先度を設定することに
なる。
、男性と女性であったりする可能性は避けられない。実物の顔のサイズは、大人と子供で
は子供の方が小さく、男性と女性では女性のほうが小さい。これらの顔の組み合わせの場
合において、このような実物のサイズの差を考慮せずに単に画枠内の顔のサイズのみによ
り優先度を設定すると、正しい被写体距離が反映されない可能性がある。
そこで、本実施形態のデジタルスチルカメラ1では、後述もするようにして、画枠内の
顔サイズに基づいて優先度を設定するときには、そのときに判定された顔についての年齢
、性別の属性に基づいて、顔サイズについて修正、正規化を行ったうえで、この修正後の
顔サイズに基づいて被写体距離に応じた優先度を設定する。
ズの中点を通過する分割線Lxとが仮想的に示されている。ここでは、この分割線Ly,Lxの
交点を画枠300の中心位置とする。
として扱う。このことに基づき、画枠内における顔の位置に関しては、画枠の中心位置に
より近い顔ほど優先度を高く設定することとした。
図9の場合には、顔Aと顔Bのうち、画枠の中心位置により近いのは顔Bなので、顔A
よりも顔Bのほうに高い優先度を設定することになる。
には、画枠内における顔の位置の変化、つまり、動きを検出することができる。
図10には、この動き検出の結果として、画枠300内にて検出された顔A、顔Bのう
ち、顔Bは静止していることが検出されているのに対して、顔Aは、動いていることが検
出されているものとする。
このような顔(被写体)の動きに関すれば、動きの小さな顔ほど操作者である可能性が
高いといえる。そこで、顔の動きに関しては、動きが小さいほど高い優先度を設定する。
図10の場合には、顔Bのほうに顔Aよりも高い優先度を設定する。
1(a)から或る時間を経過したときの画枠300の画内容を示している。
図11(a)の画内容は、これまで両目を開けていた顔Aのほうが片目(この場合は右
目)を閉じたが、顔Bのほうは、両目を開けたままの状態を示している。図11(b)は
、図11(a)の画内容が得られて或る時間を経過して顔Bも片目を閉じたときの画内容
を示す。
うにしようとすれば、ほかの被撮影者よりもデジタルスチルカメラ1の近くに移動しよう
とする、もしくは、ほかの被撮影者よりも画枠の中心位置に近いところで撮像されるよう
に移動しようとする、もしくは、できるだけ静止していようとすることが通常である。図
11の優先度設定の例は、操作者により積極的に顔の動作を求めるものとなる。
先動作として決めておく。そして、時系列において、この優先動作としての顔ジェスチャ
を先に行った顔について高い優先度を設定する。
図11での具体例としては、上記優先動作を、「片目を閉じる」という顔ジェスチャで
あるとして決めている。従って、図11の場合においては、顔A,顔Bのいずれも片目を
閉じる顔ジェスチャをしているが、顔Aのほうが時間的に早く片目を閉じる動作を行って
いるので、顔Aのほうにより高い優先度を設定することになる。
いたままで特に顔ジェスチャは行っていないのに対して、顔Aは、片目(この場合は右目
)を閉じた状態で、かつ、顔自体を左(画面では右となる)に傾ける、という顔ジェスチ
ャパターンを行った状態が示される。
つとなる。つまり、図12の例では、優先動作として予め定めた特定の顔ジェスチャパタ
ーンを先に行った顔について、高い優先度を与えようというものである。
片目を閉じながら顔自体を左に傾けるものとして定めているものとする。従って、図12
の場合には、顔Aに対して高い優先度を設定する。
る条件とする場合、操作者は、図11の場合よりも相当に強い意志で自信が操作者になろ
うとしているといえる。
そこで、図12の場合については、例えば、優先動作としての顔ジェスチャパターンの
動きをした顔について、図11の場合よりも高い優先度が与えられるようにすることが妥
当となる。
正面を向いている、すなわち、デジタルスチルカメラ1の撮像光学系にほぼ正面から向き
合う状態でいる顔のみを優先度設定の対象とすべきものとして規定されている。
正面以外の方向を向いている顔は、例えば顔ジェスチャを認識することが難しくなる。
また、このことから、正面以外の方向を向いている顔(被撮影者)は、操作者である可能
性は非常に低いといえる。このようなことに基づき、本実施形態では、上記の前提条件を
設定することとしている。
および図14を参照して説明する。
ここでの説明にあたり、先ず、優先動作としては、図12の顔Aが行う顔ジェスチャパ
ターンを採用する。また、図5により説明したように、両目を開いていた状態から片目を
閉じ、再び両目を開けるという一連の顔ジェスチャコマンドからなる顔ジェスチャパター
ンを、セルフタイマー撮影を指示する操作として規定する。そのうえで、ここで説明する
流れとしては、画枠内にて検出される顔Aと顔Bのうち、顔Aが、図12の顔ジェスチャ
パターンを行うことでジェスチャ認識対象となり、さらにこのジェスチャ認識対象とされ
た顔Aが、セルフタイマー撮影指示操作に応じた図5の顔ジェスチャパターンを行うとい
うものである。
いるが、その画内容は、図13(a)(b)(c)(d)、図14(a)(b)(c)の
順で時間経過に対応させたものとなっている。また、ここでは顔A、顔Bに対応する実物
の顔の大きさは同じであることとする。
画枠内における顔サイズも同じであり、従って両者の被写体距離も同じ状態にある。また
、顔A、顔Bとも静止している状態にある。
そこで、この場合には、顔Aと顔Bについての画枠中心位置に対する距離の条件に基づ
いて優先度を設定する。図13(a)においては、顔Aのほうが顔Bよりも画枠の中心位
置に近いので、顔Aのほうに高い優先度を与えることとする。
ここでは、顔Aに対して優先度20を与え、顔Bには、優先度0を与えている。この優
先度としての値が大きいほど、設定された優先度が高いことを示す。
とする。図13(b)においては、顔Aが片目(この場合は右目)を閉じるという顔ジェ
スチャによる優先動作を先に行ったが、顔Bのほうは図13(a)のときのまま両目を開
いている状態が示される。
この場合には、図11にて説明したように顔Aのほうに高い優先度が設定される。図1
3(b)では、図13(a)の状態から、顔Aのほうに優先度50を加算して優先度70
を設定し、顔Bについては特に優先度は加算せず優先度0のままとしている。
ままとしているのに対して、顔Aは、図13(b)において片目を閉じたままの状態から
、さらに顔を左に傾けた状態が示されている。
これが、図12にて説明した、優先動作としての特定の顔ジェスチャパターンを行った
場合に相当する。そこでこの場合には、図13(b)のときから、さらに顔Aに対して優
先度50を加算して優先度120を設定する。顔Bには、依然として優先度0を設定する
。
チャ認識対象とする顔を設定する。ジェスチャ認識対象の顔とは、デジタルスチルカメラ
1が、操作に対応する顔ジェスチャパターンを認識する対象として設定している顔のこと
をいう。
そのうえで、例えば複数の顔のうちで優先度が100以上のものが1つもないときには
、これら全ての複数の顔についてジェスチャ認識対象として設定する。
これに対して、複数のうちの1つの顔について、優先度が100以上に至った場合には
、この優先度が100以上となった顔のみをジェスチャ認識対象として設定し、これ以外
の他の顔は、ジェスチャ認識対象から外すこととする。つまり、ジェスチャ認識対象を、
優先度が100以上となった1つの顔に固定する。そして、このジェスチャ認識対象の固
定は、その後において、その顔の優先度が100未満となるまで継続される。
おいても、図8〜図12に従った優先度の設定に関しては、画枠内にて検出されている各
顔について行っている。このために、認識対象固定期間において、ジェスチャ認識対象以
外の顔について100以上の優先度に至る結果となる場合がある。しかし、ジェスチャ認
識対象設定期間においては、あくまでも、はじめにジェスチャ認識対象として設定された
顔のみを固定的にジェスチャ認識対象とし、他の顔については、優先度が100以上に至
ったか否かにかかわらず認識対象とはしない。
について確認しておく。
図13(a)においては、顔Aには優先度20が設定され、顔Bには優先度0が設定さ
れており、いずれも100未満となっている。つまり、優先度が100以上の顔は1つも
ない。このような状況では、全ての顔をジェスチャ認識対象として設定する。図13(b
)の場合も、図13(a)と同じく、全ての顔をジェスチャ認識対象として設定する。
そして、図13(c)に至ると、顔Aについて優先度120が与えられ、顔Bについて
優先度0が与えられている。従って、この場合には、顔Aのみをジェスチャ認識対象とし
て設定し、顔Bはジェスチャ認識対象外として設定することになる。
120から100に小さくなるようにして変化している。これは、画枠の中心位置からの
距離についての顔Bとの相対的な差に基づいて設定された負の優先度−20が加算された
ことによる。しかし、100以上を維持しているので図13(c)のタイミングで設定さ
れたジェスチャ認識対象が継続して有効になっている。
また、図13(d)においては、顔Bが画枠300の中心に近づいたことにより、優先
度0の状態から優先度20が加算され、優先度20が設定されている。また、このときに
は顔Aに対して依然としてジェスチャ認識対象を設定しているので、顔Bも、図13(c
)からのジェスチャ認識対象外として設定された状態を継続する。
。
図14(a)においては、これ以前までは両目を開いていた顔Aが片目を閉じる顔ジェ
スチャを行っている。デジタルスチルカメラ1では、この片目を閉じる動作、つまり目つ
ぶりコマンドを認識することになる。これに応じて、顔Aの優先度は、50加算されるこ
とで100から150に増加しており、ジェスチャ認識対象としての固定設定が継続され
る。この場合の顔Bは優先度20で変化はしておらず、ジェスチャ認識対象外として設定
された状態を継続する。
から再び両目を開く動作をしている。これにより、デジタルスチルカメラ1は、この動作
を目開きコマンドとして認識する。
ここでは、顔A,顔Bの優先度は、図14(a)と同じで変化しておらず、図14(a
)のときと同じく、顔Aがジェスチャ認識対象として設定され、顔Bがジェスチャ認識対
象外として設定されている。
目を閉じ、再び両目を開くという、セルフタイマー撮影指示操作に相当する顔ジェスチャ
パターンが行われたことになる。デジタルスチルカメラ1は、この顔ジェスチャパターン
を認識したことに応じて、セルフタイマー撮影の動作を実行する。
グに応じては、先ず、顔Aの優先度を0にリセットする。つまり、顔ジェスチャパターン
による操作に応答した動作を完了したことに応じては、この顔ジェスチャパターンによる
操作を行った顔についての優先度を0にリセットするものとしている。また、画枠内にお
ける顔の位置などの条件は、図14(b)と同じであるので、顔Bについては、これまで
と同じ優先度20が設定されている。これにより、図14(c)では、顔A、顔Bのいず
れもがジェスチャ認識対象として設定されることになる。
続いて、これまでに述べてきた顔ジェスチャによるリモートコントロール(顔ジェスチ
ャ・リモートコントロール)を実現するための技術構成例について説明する。
スチルカメラ1のシステム構成例を示している。
この図に示されるシステム構成としては、信号処理部24における顔検出部61、顔画
像生成部62と、制御部27における顔情報評価部71、優先顔評価部72、及びリモコ
ン操作制御部73と、音声出力部35、LED部36から成るものとしている。
また、図16のフローチャートは、上記図15に示すシステムが実行する基本的な処理
の流れを示している。図15に示す各部の機能を、図16のフローチャートを併用しなが
ら説明する。
に、撮像部位(光学系部21、イメージセンサ22)により撮像されてA/Dコンバータ
23を介して入力される画像データを入力して顔検出処理を実行する。つまり、画像デー
タとしての画枠内において存在する顔として認識される画像部分(顔画像部分)を検出す
る。
この顔画像検出処理の結果としては、検出した顔画像部分ごとについての画枠内におけ
る位置(重心)、及び画枠内におけるサイズの情報が得られる。顔検出部61は、これら
の情報を、顔検出情報として顔画像生成部62に渡す。
施形態においてどの方式とするのかについては特に限定されるべきものではなく、検出精
度や設計難易度などを考慮して適当とされる方式が採用されればよい。
ら渡される顔検出情報とを入力する。そして、ステップS102として、顔検出情報が示
す顔画像部分の位置及びサイズの情報を利用して、画像データとしてのフレーム画像領域
から顔画像部分の領域を切り出す処理を実行する。ここでは、切り出されたフレーム画像
領域について「顔画像エリア」という。
顔画像生成部62は、顔画像エリアとしての画像データと、これに対応する顔検出情報
とを、制御部27における顔情報評価部71に対して渡す。
像信号処理として実現できる。つまり、DSPに与えるプログラム、インストラクション
により実現できる。従って、信号処理部24内に備えられるとされる顔検出部61、顔画
像生成部62についても、DSPにより実現できることになる。
用して、その顔についての特徴量を評価(推定)する処理を実行する。なお、ステップS
103の処理は、検出された顔が複数の場合には、1つの顔に対応した評価を行うものと
なる。
、顔方向、顔の傾き、被写体距離などとなる。
ここでは、目の開閉状態の評価については、目が開いているか閉じているかについての
判定を行う。
口の開閉状態の評価については、口が開いているか閉じているかについての判定を行う
。
年齢については、所定の年齢幅により年齢を推定する。本実施形態では、例えば必要最
小限で、大人、子供の2段階による年齢の推定が可能であればよい。
性別については、男性、女性のいずれであるのかについて判定する。
顔方向は、デジタルスチルカメラ1に対して向いている方向を正面としたうえで、その
顔が向いている方向を判定する。本実施形態との対応では、最小限として、正面を向いて
いるとみなせる状態であるか否かについて判定できればよい。
顔の傾きは、例えば図4にて説明した顔の傾きについて判定する。例えば傾いていない
正立の状態、左に傾いた状態、右に傾いた状態のうちのいずれであるのかを判定するとう
にする。
被写体距離は、先に図8にて説明したように、デジタルスチルカメラ1から被写体まで
の距離であり、本実施形態では、同じ図8により説明したように、画枠内における顔画像
エリアのサイズにより推定できる。また、この際において、より高い精度で被写体距離を
求めるために、推定された年齢に応じて顔画像エリアごとにサイズの修正・正規化を行っ
たうえで、このサイズから被写体距離を求めるようにする。ここでは、これらの評価処理
の結果として得た情報を顔特徴量情報という。
を利用して求めるようにしても良い。このような測距の方式としては、例えば投光式三角
測距によるアクティブ方式、また、パッシブ方式などが知られている。
理を実行すると、ステップS104により、検出された全ての顔についての評価が完了し
たか否かについての判別を行う。ここで、否定の判別結果が得られたのであれば、ステッ
プS103に戻り、次の顔画像エリアを対象とする顔特徴量評価の処理を実行する。
そして、全ての顔画像エリアについての評価が完了したとしてステップS104にて肯定
の判別結果が得られたのであれば、例えば、これまでの評価処理により得た顔画像エリア
ごとの顔特徴量情報を、優先顔評価部72に対して渡す。即ち、ステップS104からス
テップS105に進む。
顔特徴量情報の内容に基づいて、有効な顔特徴量情報が1つ以上得られているか否かにつ
いて判別する。例えば実際においては、顔検出処理によって顔が検出されたとしても、こ
れに応じて切り出された顔画像エリアのデータの画像内容が不鮮明であるために、有効な
顔特徴量情報が得られない可能性がある。有効な顔特徴量情報が1つもない場合、以降に
おいて、適切に顔ジェスチャを認識することはできない。
場合には、ステップS101としての顔検出部61による顔検出処理に戻る。これに対し
て肯定の判別結果が得られたのであれば、ステップS106以降の処理に進む。
象にして優先度(優先順位)を設定する処理を実行する。
この優先度設定の処理手順例については、図17〜図23により後述するが、例えば図
8〜図12により説明した設定条件のうちの少なくとも1つを採用して優先度を設定する
。
ャ認識対象とする顔画像エリアを選択する。そして、ジェスチャ認識対象として選択した
顔画像エリアについて、顔ジェスチャとしての動きについての認識処理を実行する。この
認識処理において、例えば図6、図7などにより説明した手法による目つぶり状態判定や
目開き状態判定などが行われる。
)に関して、操作に対応するパターン条件を満たしたか否かについて判別する。つまり、
上記ステップS107によるジェスチャ認識の結果、或る特定の操作に対応する顔ジェス
チャパターンが得られたか否かについて判別する。
ステップS108において否定の判別結果が得られたのであれば、ステップS111に
より、今回のステップS103により得られたとする有効な顔特徴量情報を記録して保持
するための処理を実行する。この特徴量情報の記録(書き込み)は、例えばRAM27に
対して行うようにすればよい。
12の顔ジェスチャの条件に基づく場合には、時間軸上での顔画像エリアの変化を検出す
る必要がある。このためには、今回検出された顔画像エリアについての情報のみではなく
、これより前の時刻に対応する情報も必要になる。ステップS111は、この前の検出タ
イミングに対応する顔画像エリアについての情報を確保することを目的に行われる。
テップS106により設定した顔ごとの優先度に応じて、図16に示す処理に関する所定
のパラメータについての変更設定を行う。
ステップS112として、どのようなパラメータをどのようにして変更するのかについ
ては後述するが、このステップS112により、図16の処理はそのときに設定されてい
る優先度に対応して最適化されることになる。これにより、例えば操作者の誤認の確率を
低くして、顔ジェスチャ・リモートコントロールの信頼性を高めることができる。
に進む。
ステップS109では、操作制御部73は、ステップS108に対応して認識した顔ジ
ェスチャパターンによる操作に応答したしかるべき動作が実行されるようにして制御する
。
そして操作に応答した動作が完了したとされると、ステップS110により、このとき
にジェスチャ認識対象として設定されていた顔画像エリアに設定されていた優先度を0に
リセットする。
この後は、例えば必要に応じて他のルーチンの処理を実行したうえで、ステップS10
1からの処理を繰り返す。
御部73が繰り返し実行するもので、音声、LEDの点灯により通知を行うための処理と
なる。
先ず、優先顔評価部72は、ステップS201により顔情報評価部71から受け取った
顔特徴量情報の内容に基づいて、有効な顔特徴量情報が1つ以上得られているか否かにつ
いて判別する。このステップS201の処理は、例えば図16におけるステップS105
と同じであり、ステップS105による処理結果をそのまま利用すればよい。
ここで否定の判別結果が得られた場合には、ステップS205にてLED部36のLE
Dを消灯させル制御を行ったうえで、この図に示す処理を抜け、しかるべきタイミングで
ステップS201に戻る。
これに対して、ステップS201にて肯定の判別結果が得られたのであれば、ステップ
S202によりLED部36のLEDを点灯させステップS203に進む。これにより、
図5の時点t1に対応したLEDの点灯が実現される。
チャ認識処理の結果に基づき、顔画像エリアの動き(顔ジェスチャ)が、顔ジェスチャと
して規定されたコマンド(例えば図5における目つぶりコマンドや目開きコマンドなど)
となる条件を満たしたか否かについて判別する。
ここで否定の判別結果が得られた場合には、この図に示す処理を抜けて、しかるべきタ
イミングでステップS201に戻る。
これに対して肯定の判別結果が得られたのであれば、ステップS204により、操作受
付音を出力する。これにより、図5の時点t3、時点t5に対応した通知音の出力が行わ
れることになる。
ついて説明する。
この説明に先立ち、図16のステップS111にて記録される顔特徴量情報の内容例を
図18に示す。なお、ステップS111により記録される顔特徴量情報については、ステ
ップS103により得られる現時刻(今回の検出タイミング)の顔特徴量情報(現顔特徴
量情報)と区別するために、ここでは記録顔特徴量情報という。
この図においては、検出タイミングt1〜tnごとに対応してステップS111にて記
録される記録顔特徴量情報が示されている。ここでの1回の検出タイミングが、図16に
示されるステップS101〜S112までの1シーケンスを実行するタイミングに対応す
る。つまり、図6,図7における1回の検出タイミングDtに対応する。
顔サイズ、目状態、口状態、年齢、性別、顔方向、顔傾き度、被写体距離(距離)から成
るものとしている。
顔IDは、有効な特徴量情報が検出された顔画像エリアごとに固有となるようにして割
り与えられる識別子であり、ここでは、1から昇順に従った番号が割り当てられる。この
顔IDに対応する顔ごとに、上記顔位置、顔サイズ、目状態、口状態、年齢、性別、顔方
向、顔傾き度、被写体距離の情報が対応つけられる構造となっている。
例えばここでは、顔枠に対して設定したx,y座標により表すものとしている。
顔サイズは、対応する顔画像エリアについての画枠内におけるサイズを示す。
目状態は、対応する顔画像エリアについて判定された目の状態として、開/閉のいずれ
であるのかを示す情報となる。なお、この場合には、片方の目の少なくともいずれか一方
が閉じている状態であると判定されれば、目状態としては閉じていることを示すものとす
る。
口状態は、対応する顔画像エリアについて判定された口の状態として、開/閉のいずれ
であるのかを示す情報となる。
年齢は、対応する顔画像エリアについて判定された年齢を示す。ここでは、年齢として
の数値により表している。
性別は、対応する顔画像エリアについて判定された性別が男性・女性のいずれであるの
かを示す。
顔方向は、対応する顔画像エリアについて判定された顔の向きを示すもので、ここでは
正面・右向き・左向きのいずれであるのかを示すこととしている。
顔傾き度は、顔の傾きを示すもので、ここでは度数により示されている。この傾き度と
しての値が0の場合には成立した状態を示し、例えば正・負の数の絶対値が大きくなるの
に応じて、それぞれ左・右への傾きの度合いが大きくなっていく。
被写体距離については、ここではcm単位により表している。
特徴量情報として、例えばこの図18に示される構造による情報を記録する。なお、ステ
ップS111による記録の仕方として、例えば、その前の検出タイミングにおけるステッ
プS111により記録された記録顔特徴量情報を上書き消去するようにして、今回の顔特
徴量情報を記録すればよい。あるいは、現検出タイミングから所定回数分だけ過去の記録
顔特徴量情報を保持しておくこととして、今回の顔特徴量情報の記録に際しては、もっと
も過去の顔特徴量情報を上書きするようにして記録していくようにしてもよい。
現検出タイミングにて得られた顔特徴量情報と比較することによって、顔の動きの変化を
認識することができる。
例えば図19には、検出タイミングt1〜t6ごとでの、顔ID=1の顔特徴量情報にお
ける目状態の項目を抜き出して示している。また、ここでは、検出タイミングt1〜t6
に対してそれぞれ、検出タイミングDt1,Dt2,Dt3,Dt1,Dt2,Dt3を対応させている。
このようにして時系列に従って目状態の検出結果を認識していくことで、例えばこの場
合には、検出タイミングt1〜t3までは目が開いている状態であるとして判定されるこ
とになる。次に、検出タイミングt4、t5では継続して目が閉じた状態が検出され、検
出タイミングt6において目が開いた状態が検出されている。ここで、検出タイミングt
4,t5,t6は、それぞれ、検出タイミングDt1,Dt2,Dt3に対応する。従って、図6の
説明に従い、この検出タイミングt4,t5,t6に対応する期間において、目つぶり状
態が判定されることになる。
ップS106としての優先度設定処理としての手順例を示している。
先ず、優先顔評価部72は、ステップS301にて、今回のステップS103により得
られたとする有効な顔特徴量情報(現顔特徴量情報)に基づいて、所定の優先度設定条件
に対応させて、現顔特徴量情報が得られた顔ごとに、優先度として加算すべき加算値を予
め定めた規則に従って設定する。そして、求めた加算値を、これまで各顔に設定されてい
た優先度に対して加算し、優先度の変更を行う。
件は、例えば図8〜図12により説明したもののうちでは、図8に示した顔画像エリアの
サイズに基づいた被写体距離と、図9に示した顔ごとの画枠内の中心位置に対する距離差
となる。
ステップS301においては、例えば、上記被写体距離と中心位置に対する距離差のい
ずれかを採用して加算値を求めるようにすることができる。もしくは、それぞれの優先度
設定条件ごとに加算値を求めてこれまでの優先度に加算する処理とすることもできる。
について判別する。
ここで否定の判別結果が得られたのであれば、ステップS303〜S305はスキップ
してステップS306の手順に進む。これに対して、肯定の判別結果が得られたのであれ
ば、ステップS303〜S305の手順を実行してから、ステップS306に進む。
図11、図12の顔ジェスチャなどのようにして、顔画像エリアについての時系列的な変
化を検知、認識する必要のある優先度設定条件にしたがった優先度評価のための処理とな
る。
また、ここで説明するステップS303〜S305の手順は、例えば上記図10、図1
11,図12の各優先度設定条件について共通となる上位概念的な処理手順となる。図1
0、図11,図12の各優先度設定条件に対応した、より具体的な優先度評価の処理につ
いては、図21〜図23により後述する。
定の情報項目の内容について比較し、その比較結果を保持する。ここで比較する情報項目
の種類、及び数などは、優先度評価に用いる優先度設定条件に応じて異なってくる。
て、顔画像エリアごとについて、その動きを検出する。
なお、このステップS304において変化を検出すべき動きの内容に関しても、優先度
評価に用いる優先度設定条件に応じて異なってくる。
基づいて顔ごとの加算値を求めたうえで、これまでの優先度に対して今回求めた加算値を
加算して優先度を更新する。
の優先度を持つ顔が有るか否かについて判別する。ここで肯定の判別結果が得られた場合
には、図13、図14にて説明したようにして、閾値以上の優先度を持つ顔をジェスチャ
認識対象として設定する。
このようにしてジェスチャ認識対象が設定されている場合、ステップS108において
は、ジェスチャ認識対象の顔のみの顔画像エリアの動きのみを対象にして判別を行う。
8を実行したうえで、この図に示す処理を終了する。
ステップS308では、これまでにおいてジェスチャ認識対象として設定されていた顔
が有る場合には、このジェスチャ認識対象の設定を解除する処理となる。
すなわち、時系列における顔画像エリアの動きの変化に基づく優先度評価の処理として、
図10により説明した移動速度の優先度設定条件に対応させた場合の例を示している。
ここでは先ず、ステップS401により、予め定めた順序に従って選択した1つの記録
顔特徴量情報における顔位置の情報(記録顔位置情報)を抽出して取得する。つまり、現
時刻より過去の顔位置の情報を取得する。
ステップS402においては、今回のステップS103により取得された有効な顔特徴
量情報から顔位置の情報(現顔位置情報)を抽出して取得する。つまり、現時刻に対応す
る最新の顔位置の情報を取得する。
置までの変位差を算出し、次のステップS404により、この変位差に基づいて顔の移動
速度を求める。
している。ここで、まだ移動速度を求めていない顔が残っているとして否定の判別結果が
得られた場合には、ステップS401に戻ることで、次の顔についての移動速度を求める
。
これに対して、全ての顔についての移動速度を求めたとしてステップS405にて肯定
の判別結果が得られた場合には、ステップS406に進む。
ステップS406においては、これまでの処理によって求められたとする各顔の移動速
度を比較して、移動速度に応じた顔の順番を設定する。そして、ステップS407により
、例えば予め定めた規則に従って、移動速度が遅くなるのに応じて高くなるようにして、
各顔の加算値を設定し、この設定した加算値を加算して優先度の値を更新する。
度評価の処理として、図11により説明した、顔ジェスチャパターンを形成し得る動き要
素の1つ(例えば図6,図7にて認識される目つぶりコマンド、目開きコマンド)に相当
する顔の動きを優先動作条件とする場合の例を示している。
より1つ前の検出タイミングに至ってはじめて、優先動作条件を満足した顔(優先動作と
して規定される動きを行ったとされる顔)についての判定を行うようにする。このために
は、例えば1つ前の検出タイミングから所定回数の検出タイミング分の記録顔特徴量情報
を保持しておくこととして、例えば図19に示したようにして、これらの記録顔特徴量情
報における所要の情報項目における内容の変化をみるようにすればよい。例えば、ここで
の優先動作条件が、図11のとおりのものであるとすれば、記録顔特徴量情報における目
状態についての時間経過に従った変化をみることにより、目つぶりコマンド→目開きコマ
ンドの順による動作が得られているかどうかを判定することになる。そして、このような
判定を、各顔について行う。
満足した動きを完了させた顔が有ったか否かについて判別する。ここで、肯定の判別結果
が得られた場合には、前回の検出タイミングにおいて、後述するステップS505により
、既に優先動作条件を満たしたことに応じた優先度についての加算が行われている。そこ
で、この場合にはこの図に示す処理を抜けて、図20のステップS306に進む。
これに対して、ステップS502において否定の判別結果が得られたのであれば、ステ
ップS503に進む。
の検出タイミング(現検出タイミング)に至ってはじめて優先動作条件を満足する動きを
完了させた顔が有ったか否かについて判別する。
ここで否定の判別結果が得られた場合には、この図に示す処理を抜けて図20のステッ
プS306に進む。この結果、今回の検出タイミングに応じては、優先度が加算(変更)
される顔は無いことになる。
これに対してステップS503にて肯定の判別結果が得られた場合にはステップS50
5の手順に進む。
ステップS505においては、現検出タイミングに至ってはじめて優先動作条件を満た
したと判定された顔について、例えば予め設定した加算値を加算して優先度を高くする。
度評価の処理として、図12により説明した、特定の顔ジェスチャパターンに相当する顔
の動きを優先動作条件とする場合の例を示している。
先ずステップS601、S602により、記録顔特徴量情報と現顔特徴量情報とを参照
して、各顔を対象にして、顔の動きについての判定を行う。
として設定されている顔ジェスチャパターンの動きをした顔が有るか否かについて判別す
る。
ステップS603において否定の判別結果が得られた場合には、この図に示す処理を抜
けて、図20のステップS306に進む。これに対して、ステップS603において肯定
の判別結果が得られた場合にはステップS604に進む。
ステップS604においては、今回の検出タイミングにおいて、上記顔ジェスチャパタ
ーンとしての優先動作条件を満たしたものとして判定された顔について、予め設定した加
算値を加算して優先度を高く設定する。
23に示した処理のうち、いずれか1つを採用してよい。また、図21、図22、図23
に示した処理における2以上を併用してステップS303〜S305としてもよい。この
ようにして、複数の優先度設定条件を併用したほうが、優先度設定についての信頼性は高
くなる。
タ設定の具体例として、第1例〜第3例について説明する。
先ず第1例としては、優先度が一定以上に高い顔については、図16のステップS10
1〜S112として示す1回の検出タイミングとしての処理を繰り返し実行する際の開始
時間の間隔(検出時間間隔)を短くするというものである。すなわち、この場合には、パ
ラメータとして検出時間間隔を変更する。
優先度が高い顔について検出時間間隔を短くすれば、それだけ、優先度の高い顔につい
て顔ジェスチャを認識できるのに要する時間も短縮することが可能になり、それだけ顔ジ
ェスチャ認識の結果を早く得ることができる。
用いる閾値を可変設定するものである。
図6,図7にて説明した検出タイミングごとにおける動き(状態)の検出にあたっては
、その検出すべき特定の動きごとについて、検出のための閾値が設定されている。例えば
目つぶり状態の検出に関すれば、まずは目の開き具合を数値化して検出し、この開き具合
を示す数値が閾値以下であるときに、目つぶりの状態であるとの検出結果を出力する。そ
こで、目つぶり検出については、例えば優先度が高くなるのに応じて、判定のための閾値
が小さくなるようにして設定する。
パラメータとして、このような閾値の可変設定を行えば、判定対象としている動きにつ
いての判定結果が得られやすくなる。
6に示される1回の検出タイミングに応じた処理において、優先度評価を行うことのでき
る顔の最大数が制限される場合がある。
画枠内において有効な顔特徴量情報が検出された全て顔についての優先度評価を実行で
きない場合がある。この場合には、基本的には、1回の検出タイミングごとに異なる顔に
ついての優先度評価を行うようにして、これを循環させるようにしている。例えば、1回
の検出タイミングで最大3つの顔についての優先度評価が限度であるとして、6つの顔(
顔ID1〜6)が検出されているとする。この場合の基本的な処理としては、先の検出タ
イミングにより顔ID=1〜3までの顔についての優先度評価を実行し、次の検出タイミ
ングにより顔ID=4〜6までの顔についての優先度評価を実行し、これを繰り返し行う
ようにする。この場合、1つの顔についての検出頻度(単位時間あたりにおける検出回数
)は2回の検出タイミングごとに1回となる、つまり、1/2となる。
検出頻度をより高くするようにして設定する。例えば上記の例の場合であれば、優先度が
一定以上に高い顔については1/2より大きな検出頻度として1を設定し、検出タイミン
グごとに優先度評価を行うようにするものである。
これにより、判定対象としている動きについての判定結果がより速く得られることにな
る。
して採用することができる。あるいは、第1例〜第3例のうちから2以上を選択し、これ
らを併用したアルゴリズムとすることができる。
そして、このようにしてステップS112が実行されることで、次の検出タイミングに
おいては、変更されたパラメータに従った処理動作が得られることとなる。
、設定された優先度(優先順位)に応じて、顔ごとに、顔ジェスチャを認識してもらえる
度合いが変化するものとなる。つまり、顔ジェスチャの判定についてのデジタルスチルカ
メラ1側での受容度(判定受容度)を変化させる処理であるといえる。そして、ステップ
S112として、このような処理が実行される結果、先にも述べたように、例えば顔ジェ
スチャ認識精度の向上、及び操作としての顔ジェスチャパターンに対するデジタルスチル
カメラ1の応答速度などの向上がはかられることになる。
は多様に考えることができる。
ここで、先に挙げた以外の例として、デジタルスチルカメラ1を雲台に取り付けた場合
に可能となる操作の例を述べておく。
先に図1により説明したように、デジタルスチルカメラ1を対応する雲台に取り付けた
状態では、デジタルスチルカメラ1と雲台との通信により、デジタルスチルカメラ1から
雲台のパン・チルト方向における移動を制御することができる。そこで、このことを利用
して、操作者が行った特定の顔ジェスチャパターンに対応しては、デジタルスチルカメラ
1は、その操作者を被写体とした最適構図の撮像視野が得られるようにしてパン・チルト
方向への移動が行われるようにして雲台を制御するように構成する。このような構成であ
れば、例えば単に撮像記録が行われるだけでなく、常に良い構図の写真(静止画像データ
)を記録していくことができる。
CPUやDSPにプログラムを実行させることで実現できる。
このようなプログラムは、例えばROMなどに対して製造時などに書き込んで記憶させ
るほか、リムーバブルの記憶媒体に記憶させておいたうえで、この記憶媒体からインスト
ール(アップデートも含む)させるようにしてDSP対応の不揮発性の記憶領域やフラッシ
ュメモリ30などに記憶させることが考えられる。また、USBやIEEE1394など
のデータインターフェース経由により、他のホストとなる機器からの制御によってプログ
ラムのインストールを行えるようにすることも考えられる。さらに、ネットワーク上のサ
ーバなどにおける記憶装置に記憶させておいたうえで、デジタルスチルカメラ1にネット
ワーク機能を持たせることとし、サーバからダウンロードして取得できるように構成する
ことも考えられる。
にあたり、単位コマンドとしては、目の開閉の動き(状態)と顔の傾き度とを利用するこ
ととしていた。しかし、例えば、図18に例示した顔特徴量情報には、口の開閉の状態を
示す情報などもある。従って、この口の開閉の状態も単位コマンドとして利用できる。さ
らに、そのうえで、特定の顔ジェスチャパターンについて、例えば年齢、性別などの顔ご
との属性の情報を組み合わせることも考えられる。これによっては、例えば男性か女性の
いずれかしか操作できないようにしたり、大人もしくは子供のいずれかしか操作できない
ようにすることができる。
ととしているが、例えば手、腕、足、胴体など、顔以外の身体部分の動きを操作として認
識できるように構成することが考えられる。
また、この場合において、顔の動きと、他の身体部分の動きを組み合わせたジェスチャ
パターンを、特定の操作に対応させるようにすれば、例えば顔のみの場合よりも多くのジ
ェスチャパターンを考えることができる。つまり、より多様なリモートコントロール操作
が可能になる。
構成は、デジタルスチルカメラなどとしての撮像装置以外の装置やシステムにも適用する
ことができる。この際において、その構成や用途によっては、操作者の画像は、必ずしも
リアルタイムな撮像により得られているものである必要はない。
光学系、22 イメージセンサ、23 A/Dコンバータ、24 信号処理部、25
エンコード/デコード部、26 メディアコントローラ、27 制御部、28 ROM、
29 RAM、30 フラッシュメモリ、31 操作部、32 表示ドライバ、33 表
示部、34 雲台対応通信部、35 雲台対応部、36 LED部、40 メモリカード
、51 制御部、52 通信部、53 パン機構部、54 パン用モータ、55 パン用
駆動部、56 チルト機構部、57 チルト用モータ、58 チルト用駆動部、61 撮
像記録ブロック、62 構図判定ブロック、63 パン・チルト・ズーム制御ブロック、
64 通信制御処理ブロック
Claims (14)
- 画像データの画内容において存在する被写体における所定の身体部分を検出する身体部分検出手段と、
上記身体部分検出手段により上記身体部分が複数検出される場合において、これら複数の身体部分ごとに、優先度設定条件に対応する所定の状態について判定する状態判定手段と、
上記状態判定手段の判定結果に基づいて、上記複数の身体部分ごとに優先度を設定する優先度設定手段と、
上記身体部分検出手段により検出される身体部分により、操作に相当する所定の動きが行われたか否かについての判定を行うもので、上記優先度に基づいて設定した、判定対象とする身体部分についての判定受容度に従って判定を行う操作判定手段と、
上記操作判定手段により上記操作に相当する所定の動きが行われたことが判定されたのに応じて、本操作入力装置の所定の動作が実行されるようにして制御する制御手段と、
を備える操作入力装置。 - 上記状態判定手段は、上記身体部分ごとについての被写体距離を判定し、
上記優先度設定手段は、上記被写体距離に基づいて上記複数の身体部分ごとに優先度を設定する、
請求項1に記載の操作入力装置。 - 上記状態判定手段は、上記画像データに対応する画枠における上記身体部分のサイズに基づいて被写体距離について判定する、
請求項2に記載の操作入力装置。 - 上記状態判定手段は、上記画像データに対応する画枠における、上記身体部分ごとについての当該画枠の中心位置までの距離を判定し、
上記優先度設定手段は、上記距離に基づいて上記複数の身体部分ごとに優先度を設定する、
請求項1乃至請求項3のいずれかに記載の操作入力装置。 - 上記状態判定手段は、上記画像データに対応する画枠における、上記身体部分ごとの移動速度を判定し、
上記優先度設定手段は、上記移動速度に基づいて上記複数の身体部分ごとに優先度を設定する、
請求項1乃至請求項4のいずれかに記載の操作入力装置。 - 上記状態判定手段は、上記身体部分が、予め優先度設定条件として定められた所定の動きとして、所定の単一の動きをしたか否かについて判定を行い、
上記優先度設定手段は、上記の判定結果に基づいて優先度を設定する、
請求項1乃至請求項5のいずれかに記載の操作入力装置。 - 上記状態判定手段は、上記身体部分が、予め優先度設定条件として定められた所定の動きとして、所定の複数の単一の動きを組み合わせて得られる所定の動きパターンが行われたか否かについて判定を行い、
上記優先度設定手段は、上記の判定結果に基づいて優先度を設定する、
請求項1乃至請求項5のいずれかに記載の操作入力装置。 - 上記操作判定手段は、上記優先度が閾値以上の身体部分があるときには、この身体部分のみを対象として判定を行う、
請求項1乃至請求項7のいずれかに記載の操作入力装置。 - 上記優先度が一定以上の身体部分については、上記身体部分検出手段による身体部分の検出、及び操作判定手段による判定の実行を繰り返す時間間隔を、上記優先度が一定以下の身体部分よりも短く設定する、
請求項1乃至請求項8のいずれかに記載の操作入力装置。 - 上記操作判定手段は、所定の動きを判定するのに利用する閾値を、優先度に応じて、身体部分ごとに変更する、
請求1乃至請求項9のいずれかに記載の操作入力装置。 - 上記優先度が一定以上の身体部分については、上記身体部分検出手段による身体部分の検出、及び操作判定手段による判定についての単位時間あたりにおける回数を、上記優先度が一定以下の身体部分よりも多く設定する、
請求項1乃至請求項10のいずれかに記載の操作入力装置。 - 上記操作判定手段は、所定の単一の動きについて判定する場合には、予め定めた時間間隔による検出タイミングごとに上記所定の単一の動きに対応する状態が得られたか否かについて判定し、a回の連続した検出タイミングにおいてb(a>b)回以上、上記単一の動きに対応する状態が得られたのであれば、上記所定の単一の動きが行われたとの認識結果を得るようにされ、さらに、この認識結果が、連続してc(cは1以上の自然数)回以上得られたときに、上記所定の単一の動きが行われたとの判定結果を得る、
請求項1乃至請求項11のいずれかに記載の操作入力装置。 - 画像データの画内容において存在する被写体における所定の身体部分を検出する身体部分検出手順と、
上記身体部分検出手順により上記身体部分が複数検出される場合において、これら複数の身体部分ごとに、優先度設定条件に対応する所定の状態について判定する状態判定手順と、
上記状態判定手順の判定結果に基づいて、上記複数の身体部分ごとに優先度を設定する優先度設定手順と、
上記身体部分検出手順により検出される身体部分により、操作に相当する所定の動きが行われたか否かについての判定を行うもので、上記優先度に基づいて設定した、判定対象とする身体部分についての判定受容度に従って判定を行う操作判定手順と、
上記操作判定手順により上記操作に相当する所定の動きが行われたことが判定されたのに応じて、本操作入力装置の所定の動作が実行されるようにして制御する制御手順と、
を実行する操作入力方法。 - 画像データの画内容において存在する被写体における所定の身体部分を検出する身体部分検出手順と、
上記身体部分検出手順により上記身体部分が複数検出される場合において、これら複数の身体部分ごとに、優先度設定条件に対応する所定の状態について判定する状態判定手順と、
上記状態判定手順の判定結果に基づいて、上記複数の身体部分ごとに優先度を設定する優先度設定手順と、
上記身体部分検出手順により検出される身体部分により、操作に相当する所定の動きが行われたか否かについての判定を行うもので、上記優先度に基づいて設定した、判定対象とする身体部分についての判定受容度に従って判定を行う操作判定手順と、
上記操作判定手順により上記操作に相当する所定の動きが行われたことが判定されたのに応じて、本操作入力装置の所定の動作が実行されるようにして制御する制御手順と、
を操作入力装置に実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008242609A JP4561914B2 (ja) | 2008-09-22 | 2008-09-22 | 操作入力装置、操作入力方法、プログラム |
US12/534,386 US8199208B2 (en) | 2008-09-22 | 2009-08-03 | Operation input apparatus, operation input method, and computer readable medium for determining a priority between detected images |
CN2009101736562A CN101686329B (zh) | 2008-09-22 | 2009-09-10 | 操作输入设备和操作输入方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008242609A JP4561914B2 (ja) | 2008-09-22 | 2008-09-22 | 操作入力装置、操作入力方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010074735A JP2010074735A (ja) | 2010-04-02 |
JP4561914B2 true JP4561914B2 (ja) | 2010-10-13 |
Family
ID=42037233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008242609A Active JP4561914B2 (ja) | 2008-09-22 | 2008-09-22 | 操作入力装置、操作入力方法、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8199208B2 (ja) |
JP (1) | JP4561914B2 (ja) |
CN (1) | CN101686329B (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4636190B2 (ja) * | 2009-03-13 | 2011-02-23 | オムロン株式会社 | 顔照合装置、電子機器、顔照合装置の制御方法、および顔照合装置制御プログラム |
JP5434339B2 (ja) * | 2009-07-29 | 2014-03-05 | ソニー株式会社 | 撮像制御装置、撮像システム、撮像方法、プログラム |
JP5434338B2 (ja) | 2009-07-29 | 2014-03-05 | ソニー株式会社 | 撮像制御装置、撮像方法、プログラム |
JP5757063B2 (ja) * | 2010-03-29 | 2015-07-29 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US9104909B2 (en) * | 2010-12-15 | 2015-08-11 | Canon Kabushiki Kaisha | Image processing apparatus and method of processing image |
JP5627511B2 (ja) * | 2011-03-03 | 2014-11-19 | アイシン精機株式会社 | 状態推定装置、状態推定方法及びプログラム |
US10895917B2 (en) * | 2011-03-12 | 2021-01-19 | Uday Parshionikar | Multipurpose controllers and methods |
JP5953714B2 (ja) * | 2011-11-24 | 2016-07-20 | セイコーエプソン株式会社 | 装置、頭部装着型表示装置、装置の制御方法および頭部装着型表示装置の制御方法 |
US9081416B2 (en) | 2011-03-24 | 2015-07-14 | Seiko Epson Corporation | Device, head mounted display, control method of device and control method of head mounted display |
JP6106921B2 (ja) | 2011-04-26 | 2017-04-05 | 株式会社リコー | 撮像装置、撮像方法および撮像プログラム |
TWI423150B (zh) * | 2011-06-14 | 2014-01-11 | Altek Corp | 拍照時間點之預測方法 |
US20130076898A1 (en) * | 2011-08-01 | 2013-03-28 | Richard Philippe | Apparatus, systems, and methods for tracking medical products using an imaging unit |
KR101906827B1 (ko) | 2012-04-10 | 2018-12-05 | 삼성전자주식회사 | 연속 사진 촬영 장치 및 방법 |
JP6316540B2 (ja) * | 2012-04-13 | 2018-04-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | カメラ装置及びその制御方法 |
CN103379269B (zh) * | 2012-04-26 | 2017-11-24 | 富泰华工业(深圳)有限公司 | 拍摄系统、拍摄方法及使用该拍摄系统的电子设备 |
US9148537B1 (en) * | 2012-05-18 | 2015-09-29 | hopTo Inc. | Facial cues as commands |
US9395826B1 (en) | 2012-05-25 | 2016-07-19 | hopTo Inc. | System for and method of translating motion-based user input between a client device and an application host computer |
US8738814B1 (en) | 2012-05-25 | 2014-05-27 | hopTo Inc. | System for and method of translating motion-based user input between a client device and an application host computer |
US10229327B2 (en) * | 2012-12-10 | 2019-03-12 | Nec Corporation | Analysis control system |
JP6049448B2 (ja) * | 2012-12-27 | 2016-12-21 | キヤノン株式会社 | 被写体領域追跡装置、その制御方法及びプログラム |
WO2014136521A1 (ja) * | 2013-03-06 | 2014-09-12 | Necカシオモバイルコミュニケーションズ株式会社 | 撮像装置、撮像方法及びプログラム |
KR102068049B1 (ko) * | 2013-05-13 | 2020-01-20 | 삼성전자주식회사 | 영상 처리 장치 및 영상 처리 방법 |
JP6316023B2 (ja) * | 2013-05-17 | 2018-04-25 | キヤノン株式会社 | カメラシステム及びカメラ制御装置 |
CN104240277B (zh) * | 2013-06-24 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 基于人脸检测的增强现实交互方法和系统 |
DE102013212333A1 (de) * | 2013-06-26 | 2014-12-31 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Überwachung einer Teileentnahme, Teilebereitstellungssystem, Verwendung eines Vibrationsalarmgeräts |
US9525811B2 (en) * | 2013-07-01 | 2016-12-20 | Qualcomm Incorporated | Display device configured as an illumination source |
JP6319619B2 (ja) * | 2013-12-17 | 2018-05-09 | カシオ計算機株式会社 | 撮像装置、制御方法及びプログラム |
CN104735357A (zh) * | 2015-03-27 | 2015-06-24 | 天脉聚源(北京)教育科技有限公司 | 一种自动拍照的方法和装置 |
US10007845B2 (en) | 2015-07-06 | 2018-06-26 | Pixart Imaging Inc. | Eye state detecting method and eye state detecting system |
JP2017054241A (ja) * | 2015-09-08 | 2017-03-16 | 株式会社東芝 | 表示制御装置、方法及びプログラム |
JP6841232B2 (ja) * | 2015-12-18 | 2021-03-10 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN105718887A (zh) * | 2016-01-21 | 2016-06-29 | 惠州Tcl移动通信有限公司 | 基于移动终端摄像头实现动态捕捉人脸摄像的方法及系统 |
CN105894031A (zh) * | 2016-03-31 | 2016-08-24 | 青岛海信移动通信技术股份有限公司 | 一种照片选择的方法及装置 |
JP2017208750A (ja) * | 2016-05-20 | 2017-11-24 | ローム株式会社 | 映像監視装置、映像表示システム、及び車両 |
JP6276340B2 (ja) * | 2016-07-27 | 2018-02-07 | 京セラ株式会社 | 電子機器、制御方法及びプログラム |
CN106681503A (zh) * | 2016-12-19 | 2017-05-17 | 惠科股份有限公司 | 一种显示控制方法、终端及显示装置 |
US11050754B2 (en) * | 2018-10-11 | 2021-06-29 | Signify Holding B.V. | Secure remote control of integrated controls for electrical devices |
US11303877B2 (en) * | 2019-08-13 | 2022-04-12 | Avigilon Corporation | Method and system for enhancing use of two-dimensional video analytics by using depth data |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003338952A (ja) * | 2002-05-20 | 2003-11-28 | Sanyo Electric Co Ltd | デジタルカメラ及びその画像処理方法 |
JP2005051472A (ja) * | 2003-07-28 | 2005-02-24 | Nikon Corp | 自動撮影制御装置、自動撮影用プログラム、カメラ |
JP2008042319A (ja) * | 2006-08-02 | 2008-02-21 | Sony Corp | 撮像装置および方法、表情評価装置およびプログラム |
JP2008193411A (ja) * | 2007-02-05 | 2008-08-21 | Fujifilm Corp | 撮影制御装置、撮影装置、及び撮影制御方法 |
JP2008205838A (ja) * | 2007-02-20 | 2008-09-04 | Canon Inc | 撮像装置及びその制御方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004294498A (ja) * | 2003-03-25 | 2004-10-21 | Fuji Photo Film Co Ltd | 自動撮影システム |
JP4130641B2 (ja) * | 2004-03-31 | 2008-08-06 | 富士フイルム株式会社 | ディジタル・スチル・カメラおよびその制御方法 |
EP1755441B1 (en) * | 2004-04-01 | 2015-11-04 | Eyefluence, Inc. | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
JP2007028555A (ja) * | 2005-07-21 | 2007-02-01 | Sony Corp | カメラシステム,情報処理装置,情報処理方法,およびコンピュータプログラム |
JP4127297B2 (ja) * | 2006-06-09 | 2008-07-30 | ソニー株式会社 | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム |
JP4110178B2 (ja) * | 2006-07-03 | 2008-07-02 | キヤノン株式会社 | 撮像装置及びその制御方法及びプログラム及び記憶媒体 |
TWI319680B (en) * | 2006-08-30 | 2010-01-11 | Face-detection-based remote-control system and method and face-detection-based remote-controllable multimedia system | |
JP2008072183A (ja) | 2006-09-12 | 2008-03-27 | Matsushita Electric Ind Co Ltd | 撮像装置および撮像方法 |
JP4757173B2 (ja) * | 2006-11-17 | 2011-08-24 | キヤノン株式会社 | 撮像装置及びその制御方法及びプログラム |
JP4787180B2 (ja) * | 2007-01-24 | 2011-10-05 | 富士フイルム株式会社 | 撮影装置及び撮影方法 |
JP4974704B2 (ja) * | 2007-02-22 | 2012-07-11 | パナソニック株式会社 | 撮像装置 |
US8023699B2 (en) * | 2007-03-09 | 2011-09-20 | Jiris Co., Ltd. | Iris recognition system, a method thereof, and an encryption system using the same |
JP5060233B2 (ja) * | 2007-09-25 | 2012-10-31 | 富士フイルム株式会社 | 撮像装置およびその自動撮影方法 |
-
2008
- 2008-09-22 JP JP2008242609A patent/JP4561914B2/ja active Active
-
2009
- 2009-08-03 US US12/534,386 patent/US8199208B2/en active Active
- 2009-09-10 CN CN2009101736562A patent/CN101686329B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003338952A (ja) * | 2002-05-20 | 2003-11-28 | Sanyo Electric Co Ltd | デジタルカメラ及びその画像処理方法 |
JP2005051472A (ja) * | 2003-07-28 | 2005-02-24 | Nikon Corp | 自動撮影制御装置、自動撮影用プログラム、カメラ |
JP2008042319A (ja) * | 2006-08-02 | 2008-02-21 | Sony Corp | 撮像装置および方法、表情評価装置およびプログラム |
JP2008193411A (ja) * | 2007-02-05 | 2008-08-21 | Fujifilm Corp | 撮影制御装置、撮影装置、及び撮影制御方法 |
JP2008205838A (ja) * | 2007-02-20 | 2008-09-04 | Canon Inc | 撮像装置及びその制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20100073497A1 (en) | 2010-03-25 |
US8199208B2 (en) | 2012-06-12 |
JP2010074735A (ja) | 2010-04-02 |
CN101686329B (zh) | 2011-11-16 |
CN101686329A (zh) | 2010-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4561914B2 (ja) | 操作入力装置、操作入力方法、プログラム | |
US11729487B2 (en) | Image pickup apparatus and control method therefor | |
US9147106B2 (en) | Digital camera system | |
KR100924685B1 (ko) | 촬상 장치 및 그 제어 방법 | |
US11812132B2 (en) | Imaging device, control method therefor, and recording medium | |
JP6641447B2 (ja) | 撮像装置及びその制御方法、プログラム、記憶媒体 | |
US10547774B2 (en) | Image processing device, image processing method, and program | |
US20120275648A1 (en) | Imaging device and imaging method and program | |
CN111294488B (zh) | 摄像设备及其控制方法和存储介质 | |
JP6641446B2 (ja) | 画像処理方法、画像処理装置、撮像装置、プログラム、記憶媒体 | |
JP2004320287A (ja) | デジタルカメラ | |
US20230362472A1 (en) | Image pickup apparatus and control method therefor | |
KR20120052238A (ko) | 제어 장치, 촬상 시스템, 제어 방법, 프로그램 | |
JP4670521B2 (ja) | 撮像装置 | |
JP2019110509A (ja) | 撮像装置及びその制御方法、プログラム、記憶媒体 | |
JP2009117975A (ja) | 撮影装置および撮影方法 | |
JP2007094535A (ja) | 認証システム及び認証方法 | |
US11818457B2 (en) | Image capturing apparatus, control method therefor, and storage medium | |
JP2021150760A (ja) | 撮像装置およびその制御方法 | |
TW201421138A (zh) | 數位相機及數位相機之影像擷取方法 | |
JP7342883B2 (ja) | 撮像制御装置、撮像装置、撮像制御方法 | |
JP6492483B2 (ja) | 検出装置、検出方法及びプログラム | |
US20230034719A1 (en) | Image capture apparatus, control method, and computer-executable medium | |
JP2024033747A (ja) | 撮像装置、撮像装置の制御方法、プログラム | |
JP2023141001A (ja) | 探索制御装置、撮像装置および探索制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100706 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100719 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130806 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4561914 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130806 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |