JP2007274207A - 画像表示装置、撮像装置および画像表示方法 - Google Patents

画像表示装置、撮像装置および画像表示方法 Download PDF

Info

Publication number
JP2007274207A
JP2007274207A JP2006095816A JP2006095816A JP2007274207A JP 2007274207 A JP2007274207 A JP 2007274207A JP 2006095816 A JP2006095816 A JP 2006095816A JP 2006095816 A JP2006095816 A JP 2006095816A JP 2007274207 A JP2007274207 A JP 2007274207A
Authority
JP
Japan
Prior art keywords
frame
display
face
evaluation value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006095816A
Other languages
English (en)
Other versions
JP4507281B2 (ja
Inventor
Takashi Misawa
岳志 三沢
Masahiko Sugimoto
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2006095816A priority Critical patent/JP4507281B2/ja
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to US11/730,140 priority patent/US8704856B2/en
Publication of JP2007274207A publication Critical patent/JP2007274207A/ja
Application granted granted Critical
Publication of JP4507281B2 publication Critical patent/JP4507281B2/ja
Priority to US14/198,358 priority patent/US9736379B2/en
Priority to US15/642,646 priority patent/US10554894B2/en
Priority to US16/701,958 priority patent/US10841499B2/en
Priority to US17/067,292 priority patent/US11196933B2/en
Priority to US17/517,356 priority patent/US11678049B2/en
Priority to US18/312,121 priority patent/US20230276121A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像に含まれる特定領域を検出し、検出された場合にその枠を表示する時に、検出状況により枠の表示が明滅することを解決する。
【解決手段】CPU20は、顔検出部30から出力された、標準化された顔評価値と、顔を表す枠の位置から、前記標準化された顔評価値に応じた枠線濃度で顔を表す枠表示をCPU20が生成し、表示部22に表示(A4、A5)する。さらに、枠表示と前記標準化された顔評価値の対応を示すインジケータ等(I3からI8)を表示部22の右端に表示する。顔を表す枠の表示により、顔評価値を直感的に認識できると共に、連続的に表示するので滑らかな表示が可能になる。またインジケータ上にも顔評価値を表す表示をすることで顔評価値をより認識しやすくなる。
【選択図】図11

Description

本発明は画像表示装置、撮像装置および画像表示方法に係り、特に画像に含まれる特定領域を表す情報表示を行う技術に関する。
ここでは表示装置・撮像装置の従来技術として撮像装置(デジタルカメラ)について述べる。デジタルカメラでは被写体像の中から、特定の領域(顔)を検出できるものが実用化されている。これらは通常の撮像による自動焦点制御(AF)や自動露出制御(AE)が困難な場合でも、顔を検出し、顔領域でAFやAEを行うことによって、適切な焦点および露出の被写体像を得ることができる。また顔を検出した時は検出領域に枠を表示することで、操作者はデジタルカメラが顔を検出したか、しないかを判断することができる。
特許文献1には、撮像によって得られた被写体像の中に存在する顔の領域を検出し、撮像時に顔の領域をユーザに知らせることができるようにするデジタルカメラが開示されている。また、枠内の画像を表す画像データを用いてAFおよびAEが行われる。顔の領域にピントが合い、かつ適正な明るさをもつ被写体像を表す画像データが記録できる。
特許文献2には、撮像によって得られた被写体像の中に存在する顔の領域を検出し、前記顔評価値が最大となる位置に上記レンズを位置決めするように上記レンズ駆動回路を制御するレンズ制御手段を備えているデジタルカメラが開示されている。
特開2005−286940号公報 特開2005−284203号公報
このようなデジタルカメラでは、枠の表示により、操作者はデジタルカメラが顔を検出したか、しないかを判断することができる。しかし、検出状況が急激に変化する場合には、枠の表示も急に表示されたり、非表示になったりする。例えば、図34のようなポートレート撮影において、図34(a)のように風にたなびいた髪の毛が目にかからなかった場合は、顔を検出し枠が表示されるが、図34(b)のように髪の毛が目にかかってしまった場合は、片目が検出されないことで、顔が検出されず、枠が表示されなくなる。これが繰り返されると、枠が明滅することになる。この他にも、じっとしていない子供の撮影を行う場合などは枠が明滅して煩わしい。
また特許文献2に記載の技術は、顔評価値が最大となるようにレンズを移動させ、これにより人物の顔に焦点が合うようにするものであり、撮影時に操作者に顔の領域を知らせるものではない。
本発明はこのような事情に鑑みてなされたもので、特定対象を囲む枠を特定対象評価値に応じて連続的または段階的に変化させることにより、従来の表示する、しないという区別しかなかった枠表示を改善し、表示の煩わしさを極力抑制することができる画像表示装置、撮像装置および画像表示方法を提供することを目的とする。
請求項1に係る画像表示装置は、画像信号を入力する画像入力手段と、前記画像信号に含まれる特定対象を、その特定対象らしさを示す特定対象評価値によって検出する特定対象検出手段と、検出された特定対象を囲む枠を示す枠表示情報を生成する枠表示情報生成手段であって、前記特定対象評価値に応じて前記枠を連続的または段階的に変化させる枠表示情報生成手段と、前記生成された枠表示情報に基づいて、前記枠を表示する表示手段とを備えたことを特徴とする。
即ち、枠が特定対象の評価値によって連続的または段階的に変化することで枠表示の急激な変化を避けることができる。
請求項2に係る画像表示装置は、請求項1に記載の画像表示装置において、前記枠表示情報生成手段が、特定対象評価値に応じて、前記枠の、枠線の濃淡、枠線の色相、枠線を構成する線分方向表示率、および枠線の幅の少なくともいずれかを変化させる枠表示情報を生成することを特徴とする。
即ち、枠線の濃淡が変化したり、枠線の色相が変化したり、枠線を構成する線分方向表示率が変化したり、または枠線の幅が変化したりなど、グラフィカルに枠表示が変化することで、枠表示の急激な変化を避けることができる。なお、前記枠線の線分方向表示率は、枠線を破線(点線)で表示する場合の、1つの破線(点)の長さと、隣接する破線(点)の同じ端部間との間隔との割合をいい、枠線全体を実線で表示する場合には、線分方向表示率は100%となる。
請求項3に係る画像表示装置は、請求項1に記載の画像表示装置において、前記枠表示情報生成手段が、前記特定対象評価値に応じて、前記枠の、枠線の時間的表示率を変化させる枠表示情報を生成することを特徴とする。
即ち、枠線の時間的表示率(単位時間当たりの枠線の表示時間)が前記特定対象評価値に応じて変化することで、枠表示の急激な変化を避けることができる。
請求項4に係る画像表示装置は、請求項1または2に記載の画像表示装置において、前記表示手段に、さらに、前記枠の表示と前記特定対象評価値との対応を示すインジケータを表示することを特徴とする。
即ち、枠の表示から、前記特定対象評価値を知ることができる。
請求項5に係る画像表示装置は、請求項1から4のいずれかに記載の画像表示装置において、前記表示手段に、さらに、前記特定対象評価値を表す表示をすることを特徴とする。
即ち、前記特定対象評価値をより具体的に知ることができる。
請求項6に係る画像表示装置は、請求項1から5のいずれかに記載の画像表示装置において、前記画像信号に特定対象が複数含まれる場合、少なくとも異なる2色を用いて前記特定対象を囲む個々の枠を示す枠表示情報を前記枠表示情報生成手段が生成することを特徴とする。
即ち、前記特定対象が複数ある場合に、それぞれの特定対象評価値を識別することが可能になる。
請求項7に係る画像表示装置は、画像信号を入力する画像入力手段と、前記画像信号に含まれる特定対象を、その特定対象評価値によって検出する特定対象検出手段と、検出された特定対象を囲む枠を示す枠表示情報を生成する枠表示情報生成手段と、前記特定対象評価値を表す数値と共に、前記生成された枠表示情報に基づいた前記枠を合成表示する表示手段と、を備えたことを特徴とする。
即ち、数字として前記特定対象評価値を直接知ることができる。
請求項8に係る画像表示装置は、請求項1から7のいずれかに記載の画像表示装置において、前記枠を表示するか否かの判別を前記特定対象評価値に応じて行う表示判別手段をさらに備え、前記特定対象評価値が所定の表示判別値以上であるときに、前記枠を表示することを特徴とする。
即ち、前記特定対象の評価値が低い場合に枠表示をしないことで、必要な枠表示のみ表示することができる。
請求項9に係る画像表示装置は、画像信号を入力する画像入力手段と、前記画像信号に含まれる特定対象を、その特定対象らしさを示す特定対象評価値によって検出する特定対象検出手段と、検出された特定対象を囲む枠を示す枠表示情報を生成する枠表示情報生成手段と、前記生成された枠表示情報に基づいて前記枠を表示する表示手段と、前記特定対象評価値が所定の表示判別値以上であるときに、前記枠を表示する表示判別手段と、を備え、前記表示枠情報生成手段は、前記表示判別手段により、前記枠を表示から非表示と判別した時は時間経過と共に徐々に非表示となるよう、また前記枠を非表示から表示と判別した時は、前記枠が時間経過と共に徐々に表示となるように、前記枠表示情報を生成することを特徴とする。
即ち、前記表示判別手段により前記特定対象を表す前記枠を表示から非表示と判別した時は、検出された特定対象を囲む枠が時間経過と共に徐々に非表示となるように表示されることで、枠表示の急激な変化を避けることができる。また前記表示判別手段により前記特定対象を表す前記枠を非表示から表示と判別した時は、前記枠が時間経過と共に徐々に表示となるように表示されることで、枠表示の急激な変化を避けることができる。
請求項10に係る画像表示装置は、請求項9に記載の画像表示装置において、前記枠表示情報生成手段が、前記表示から非表示と判別した時点、または前記非表示から表示と判別した時点からの時間経過に応じて、前記枠の、枠線の濃淡、枠線を構成する線分方向表示率、枠線の幅、枠の表示倍率、および枠線の時間的表示率の少なくともいずれかを変化させる枠表示情報を生成することを特徴とする。
即ち、前記枠表示情報生成手段が、前記表示から非表示と判別した時点、または前記非表示から表示と判別した時点からの時間経過に応じて、前記枠の、枠線の濃淡、枠線を構成する線分方向表示率、枠線の幅、枠の表示倍率、および枠線の時間的表示率が変化することで、枠表示の急激な変化を避けることができる。
請求項11に係る画像表示装置は、請求項9に記載の画像表示装置において、前記枠表示情報生成手段が、前記表示から非表示と判別した時点、または前記非表示から表示と判別した時点からの時間経過に応じて、前記枠の、複数の線分から構成される枠線の線分の画面内表示率を変化させる枠表示情報を生成することを特徴とする。
即ち、前記枠表示情報生成手段が、前記表示から非表示と判別した時点、または前記非表示から表示と判別した時点からの時間経過に応じて、前記枠の、複数の線分から構成される枠線の線分の画面内表示率を変化させることにより、枠表示の急激な変化を避けることができる。
請求項12に係る画像表示装置は、請求項11に記載の画像表示装置において、前記枠表示情報生成手段が、前期時間経過に応じて、前記枠の、複数の線分から構成される枠線の個々の線分の枠中心からの距離を変化させる枠表示情報を生成することを特徴とする。
即ち、前記枠表示情報生成手段が、前記表示から非表示と判別した時点、または前記非表示から表示と判別した時点からの時間経過に応じて、前記枠の、複数の線分から構成される枠線の線分の画面内表示率を変化させることにより、枠表示の急激な変化を避けることができる。なお、前記枠の画面内表示率は、たとえば複数の線分から構成される枠線の各線分を、それぞれ分離させて特定対象を中心にして略放射状に拡散させ、徐々に画面外に移動させるような枠表示を行う場合、あるいは特定対象の中心に向かって移動させ、徐々に収束させるような枠表示を行う場合において、全ての線分が画面から表示されなくなった時を0%とする。
請求項13の画像表示装置は、請求項8から12のいずれかに記載の画像表示装置において、前記表示判別値を操作者が入力可能であることを特徴とする。
即ち、枠表示をする前記特定対象の評価値を操作者が入力することで、必要な枠表示のみ表示することができる。
請求項14の画像表示装置は、請求項1から13のいずれかに記載の画像表示装置において、前記表示手段が、前記画像信号に基づいて画像を表示すると共に、前記枠を合成表示することを特徴とする。
即ち、画像と枠を合成して表示することにより、前記特定対象検出手段の検出している対象を容易に確認することが可能になる。
請求項15の画像表示装置は、請求項1から14の画像表示装置において、前記特定対象が顔であり、前記特定対象検出手段が顔検出手段であることを特徴とする。
即ち、顔を表す枠の枠表示の急激な変化を避けることができる表示装置を実現することができる。
請求項16の撮像装置は、請求項1から15のいずれかに記載の画像表示装置と、前記画像入力手段として機能する撮像手段とを備えたことを特徴とする。
即ち、前記特定対象を表す枠の枠表示の急激な変化を避けることができる撮像装置を実現することができる。
請求項17に係る画像表示方法は、被写体像を表す画像信号を得て、前記画像信号に含まれる特定対象を、その特定対象らしさを示す特定対象評価値によって検出し、検出された特定対象を囲む枠を示す枠表示情報を生成し、前記特定対象評価値に応じて前記枠を連続的または段階的に変化させた枠表示情報を表示手段に表示することを特徴とする。
請求項18の画像表示方法は、被写体を表す画像信号を得て、前記画像信号に含まれる特定対象を、その特定対象らしさを示す特定対象評価値によって検出し、検出された特定対象を囲む枠を示す枠表示情報を生成し、前記特定対象評価値に応じて前記枠を表示するか否かを判別し、前記枠を表示から非表示と判別した時は前記枠が時間経過と共に徐々に非表示となるよう、また、前記枠を非表示から表示と判別した時は前記枠が時間経過と共に徐々に表示となるように、前記枠表示情報を生成し、この枠表示情報に基づいて枠を表示することを特徴とする。
請求項19の画像表示方法は、請求項17もしくは請求項18の表示方法において、さらに前記画像信号と前記枠表示情報に基づいて画像に枠を合成して表示することを特徴とする。
本発明によれば、特定対象を囲む枠を前記特定対象の評価値に応じて連続的または段階的に変化させることにより、従来の表示する、しないという区別しかなかった枠表示を改善し、表示の煩わしさを極力抑制することができる画像表示装置、撮像装置および画像表示方法を提供することができる。
以下、添付図面に従って本発明に係る画像表示装置、撮像装置および画像表示方法の好ましい実施の形態について説明する。
図1は本発明に係る画像表示装置のひとつの実施形態としての撮像装置1の内部構成の一例を示すブロック図である。
同図において、撮像装置1は、画像入力部10、入力信号処理部12、CPU20、表示部22、画像記録部24、操作部26、通信部28、および特定対象検出部(顔検出部)30で構成される。また、CPU20が、操作部26あるいは通信部28からの操作者の指示により前記各ブロックの制御を行う。
画像入力部10が撮像部として構成される場合、画像入力部10で外部から入射する光学像をレンズ、撮像素子等を用い、画像信号に変えて出力する。必要に応じて、低照度時などに補助光として用いるフラッシュもしくは照明手段を持っていても良い。また、画像入力部10が、外部からの画像信号を入力する外部信号入力部として構成される場合は、画像入力部10が画像記録部24あるいは通信部28と構成が重複することがある。すなわち、画像記録部24の記録媒体用インターフェース、あるいは通信部28を使用して画像入力が行われる。この他、図示しないが必要に応じて補助光を投影する補助光部、音声の再生や警告音を出すスピーカ部なども持つ。
入力信号処理部12は前記画像信号を処理し、CPU20に渡す。ここでの信号処理は、操作者の要求する出力画像信号形態により異なる。撮影モードに応じて、オフセット補正処理、ホワイトバランス処理、カラーマトリクス処理、階調変換処理、デモザイク処理、輪郭強調処理、そして圧縮処理等を前記画像信号に対して行う。撮影モードとは、静止画撮影モード、動画撮影モード、そしてこれらの撮影準備段階のスルー画表示モードである。さらに、静止画撮影モードは、圧縮記録モード、非圧縮記録モードに分かれ、非圧縮記録モードはRAW画像記録モードと、非圧縮画像フォーマット記録モードにさらに分かれる。詳細を後述するスルー画表示モードは、画像入力部10を連続出画動作させ、出画された連続画像を入力信号処理部12で信号処理し、表示部22の表示形態に合わせた出力形式で出力する。これにより、表示部22にスルー画が連続表示される。
画像記録部24は、入力された画像信号を記録する。記録する媒体は、内蔵記録媒体、あるいはメモリカードのような外部記憶媒体のどちらでも良いし、両方存在しても良い。画像だけでなく、入力された、あるいは生成された情報(データ)を記録可能である。また、記録部という名称であるが、記憶だけでなく読出しも可能であり、ここから読み出されたデータを、CPU20経由で通信部28から送信することや、表示部22に表示することも可能である。
操作部26は、撮像装置1を操作する電源スイッチや、操作スイッチで構成される。操作者は、操作部26から撮像装置1に指示を与えることで、撮像装置1を操作することが可能になる。
通信部28は、撮像装置1が外部と通信するための手段である。通信方式として、有線通信、無線通信、光通信などを必要に応じて使用することが出来る。また通信プロトコルも必要に応じて選択可能である。通信部は外部に情報を送信できる他、外部からの情報を受信することが出来る。
特定対象検出部(顔検出部)30は、スルー画の画像、又は記録された画像から被写体の特定対象、すなわち、顔、目、瞳、鼻、口等を検出し、それらの特徴点、パターンを識別することにより被写体の顔を検出する。顔検出の具体的な方法は、エッジ検出又は形状パターン検出による顔検出方法、前述した各特定対象の特徴点をベクトル化し、特徴点ベクトルを近似検出することによる、特徴点ベクトル近似法、色相検出又は肌色検出による顔検出方法等の公知の方法を利用することができる。顔検出部30は、人物の顔を検出すると、その顔の表示領域を示す情報を顔評価値と共にCPU20に出力し、必要に応じて表示領域を示す枠や、それに付随する情報を表示部22に表示することができる。
ここで、顔検出部30の詳細を、前記特徴点ベクトル近似法を例に説明する。図2は特徴点ベクトル近似法の例を示す。
図2(a)は、顔検出を行い、検出されたか、されないかの結果と、枠の表示位置、そして大きさを出力することが可能な顔検出部30の実施の形態を示すブロック図である。入力された画像信号から、検出位置を移動しながら、パラメータ検出処理手段41、42が、それぞれ異なるパラメータを検出する。ベクトル合成処理手段48は、検出されたパラメータを合成し、ベクトルを生成する。例えばパラメータが8種類ある場合には、8次元のベクトルが合成される。判定処理手段50は、合成されたベクトルと、辞書46に記憶されたリファレンスベクトルを比較し、差が所定の値以下である時に、顔と判定する。尚、リファレンスベクトルは顔の特徴に応じて複数記憶されていることが望ましい。前記判定後、判定されたか否かの結果と、前記検出位置およびパラメータの検出位置から得られる顔を表す枠の位置を、出力手段52から出力する。
図2(b)は、顔検出を行い、検出された顔の標準化された顔評価値と、枠の表示位置、そして大きさを出力することが可能な顔検出部である。ベクトル合成処理手段48で、それぞれのパラメータを合成し、ベクトルを生成する部分までは図2(a)と同一であるので説明を省略する。判定処理手段51は、合成されたベクトルと、辞書46に記憶されたリファレンスベクトルを比較し、ベクトル間の差を絶対値として、顔評価値とする。尚、リファレンスベクトルが複数の場合、各リファレンスベクトルと合成されたベクトルの差を、さらにベクトル合成(自乗和)した値が、顔評価値となる。つまり、理想的にリファレンスベクトルと一致する場合は出力が0になる。顔評価値算出後、顔評価値は標準化処理手段54に送られ、標準化された顔評価値と、前記検出位置およびパラメータの検出位置から得られる顔を表す枠の位置を出力手段53から出力する。標準化手法は、後述する表示される枠の表示方法によって適宜選ばれるのが望ましい。本実施形態では、以後図2(b)の顔検出部を使用することとして説明する。尚、図2では各処理部が分かれているが、顔検出部はすべてをCPU20で行うことも可能である。この場合は全てをソフトウェアで処理することとなる。
図3に、出力手段53から出力される、標準化された顔評価値と、前記検出位置およびパラメータの検出位置から得られる顔を表す枠の位置情報を示す。枠位置情報はここでは、四角形の枠として、四隅の座標を出力しているが、この他にも枠のいずれかの隅の座標と枠の大きさ、傾きなどを出力しても良い。また四角形以外の枠でも良い。その場合の出力方法は適宜選択されることになろう。また、図3では、3人の顔が検出された場合の検出結果1、2、3が示されている。
次に、前記撮像装置1の表示部22に、前記顔を表す枠を表示する際の作用について詳述する。
<枠表示の第1の実施形態>
顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示する例を図4に示す。ここでは顔評価値を、枠線の濃淡として表示している。すなわち、顔評価値が小さい場合、図4(a)のように枠線の濃度が淡く(図では白く)表示(A1)され、顔評価値が大きい場合、図4(b)のように枠線の濃度が濃く(図では黒く)表示(A2)される。枠線がグレースケールで表示される場合は、枠線の濃度が顔評価値に対応し、枠線が色を持つ場合は、枠線を構成する色成分のうち、少なくともいずれかの色の濃度が顔評価値に対応すると良い。
表示部22が、例えば8ビットの画像データを表示することが出来る場合、顔評価値と、標準化された顔評価値は上記のように表示する場合には、図5の標準化テーブルの内、標準化1のテーブルを使用すると良い。すなわち、顔評価値が0の時には標準化1の出力は255となり、枠線がグレースケールで表示される場合は、枠線が255、すなわち白線で表示され、枠線が緑色である場合には、緑が255、その他の色は0であるので真緑線で表示される。顔評価値が100の時には標準化1の出力は0となり、枠線がグレースケールで表示される場合は、枠線が0、すなわち黒線で表示され、枠線が緑色である場合にも、緑およびその他の色が0であるので黒線で表示される。尚、ここでは評価値が0から100であるが、この値は顔検出部の構成により異なる。同様に標準化のテーブルも、表示部の要求するデータ入力仕様により異なる。つまり、255という表示データが白には必ずしも対応しない。従って、表示部22の仕様や、表示に要求される仕様により標準化テーブルを定義する必要がある。また、ここでは100段階の評価値テーブルを定義しているが、より細かな段階のテーブルでも良いし、荒い、例えば10段階程度のテーブルでも良い。さらに、図5の例では、顔評価値100以上は全て100として扱うようにしても良い。
このように、枠を顔評価値によって連続的または段階的に表示することで、従来のような枠の表示、非表示という急激な表示変化ではなく、滑らかな枠の表示を行うことができる。
次に、上記構成の撮像装置1により、顔評価値に応じて顔を表す枠を連続的または段階的に変化させる場合の処理内容について説明する。
図6はCPU20が、顔評価値に応じて枠を連続的または段階的に表示する処理手順を示すフローチャートである。
画像入力部10より画像を入力あるいは撮像して得た画像信号を、入力信号処理部において信号処理を行い画像として取得する(ステップS100)。次に顔検出部において、入力画像から、そこに含まれる被写体の特定対象、すなわち、顔、目、瞳、鼻、口等を検出し、それらの特徴点、パターンを識別することにより被写体の顔を検出する(ステップS102)。次に、画像入力部10から入力された画像を表示する(ステップS104)。次にステップS110において、「顔検出数N=0」でない場合にはステップS120に進み、「顔検出数N=0」の場合にはステップ200に進む。
ステップS120では、CPU20は、まず、検出結果1の標準化された顔評価値を枠線濃度に代入する。次にステップS186に進み、ステップS120で濃度を代入された枠線で検出結果1の枠を表示部22に表示する。次に、ステップS190で検出結果1を消去し、検出結果2以降を−1する。図3の標準化された顔評価値と前記検出位置およびパラメータの検出位置から得られる顔を表す枠の位置情報テーブルの例では、検出結果2が1に、3が2に繰り上がり、1が消去される。そして、ステップS190に進み顔検出数Nを−1してステップS110に戻り、顔検出数Nが0になるまで同様の処理を繰り返す。この結果、顔の検出結果に応じた枠線濃度で枠線を表示することが出来、操作者が検出結果を知ることが出来る。また、表示が検出されたか否かで急激に変化することが無くなり、自然な表示が可能となる。
ステップS200では、撮影を行うかどうかの判別をする。通常は操作部26に設けられるシャッターボタンや録画ボタン(共に図示せず)が押されたか、否かで判別する。撮影処理を行う場合はステップS202で撮影処理を行い、ステップS210に進む。撮影処理を行わない場合には直接ステップS210に進み終了か否かを判別する。終了しない場合はステップS100に戻り同様の処理を繰り返す。
尚、ここではフローチャートでの説明の都合上、時間系列で画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)を行うようにしているが、例えば顔検出部がCPU20と独立して動作する構成であれば、顔検出(ステップS102)を行いながら、画像表示(ステップS104)を行うことも可能であるし、全体の処理短縮のためにはその方が望ましい。上記説明部だけでなく、以下の説明部分でも並列処理が可能な部分は並列処理をすることで高速化が可能である。
また、ここでは画像を表示部22に先に表示し、枠を表示部22に後から表示するようにしているが、装置の構成により、先に表示する画像と枠を合成し、合成した結果を表示部22に送り表示しても良い。
さらに、画像を表示することは必須では無い。例えば監視用途の撮像装置であり、監視内容が人物の顔が存在するか否かである場合、画像表示が無くとも顔の枠表示があれば良い。表示された枠で必要と判断した時などに、画像を表示すれば良いからである。例えば顔と検出した場合に枠を表示し、それが一定時間(例えば3秒以上など)継続して検出が続いた場合に、初めて画像を表示するようなことが考えられる。このようにすることで、注意力が必要な多くの映像が映った監視映像画面ではなく、必要な監視画面だけを監視することが可能になる。
<枠表示の第1の実施形態の第1変形例>
次に、顔検出部30から出力された、前記標準化された顔評価値(例えば、図5の標準化2で標準化された顔評価値)と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠表示と前記標準化された顔評価値の対応を示すインジケータ等を表示する例を図7に示す。
インジケータ等の例として、図7では右端にグラデーション表示されたインジケータI1と、右下に50%(L1)右上に100%(L2)の表示をしている例を示す。操作者(あるいはユーザ)は表示された顔を表す枠と、インジケータ等を比較することで標準化された顔評価値のおよその値を知ることができる。すなわち、顔を表す枠線の濃度が、グラデーション表示されたインジケータI1のどの位置の濃度に対応するかによって、顔評価値のおよその値を知ることができる。
また、本実施形態では標準化された顔評価値が表示判別値以上(図7の例では、50%以上)である時に、顔を表す枠を表示するようにしている。これにより、標準化された顔評価値が設定された表示判別値以上の顔を表す枠のみを表示することが可能となり、表示の煩雑さを避けることが出来る。さらに、この表示判別値は操作者があらかじめ入力されている値の中から選択できても良いし、値を入力できても良い。操作者の好みにより、より低い顔評価値の顔を表示させるようにしたり、高い顔評価値の顔のみを表示させるようにしたりすることが可能になる。
図8はCPU20が、顔評価値に応じて枠を連続的または段階的に表示すると共にインジケータを表示する処理手順を示すフローチャートである。
本実施形態は、図6の変形例であるので、図6と異なる部分のみ説明する。
画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)までは図6と同様である。画像表示(ステップS104)の後、ステップS106で、インジケータ等を表示する。インジケータ等には図7に示す、インジケータL1と、インジケータの数値表示L1およびL2が含まれる。
次に、ステップS110の顔検出数の判別において、検出数が0で無かった場合にステップS114に進み、検出結果1の標準化された顔評価値があらかじめ表示する下限として設定された数値(ここではX)以上であるかどうかを判別する。検出結果1の標準化された顔評価値がX以上である場合は枠を表示するので、枠を表示する(ステップS120、S186)が、図6と同じであるために説明を省略する。その後ステップS190に進む。一方、検出結果1の標準化された顔評価値がX未満である場合は枠を表示せず、ステップS190へ進む。
その後(ステップS190、ステップS192および、ステップS200、S202、S210)は図6と同様である。
これにより、操作者はインジケータを参照することで顔を表す枠の顔評価値をより詳細に知ることができる。また、枠を表示する顔評価値(表示判別値)を設定することにより、評価値が低くノイズが含まれるような対象に枠が表示されることを避けることができる。また、表示判別値をあらかじめ設定された中から選択、あるいは設定することにより、用途によって表示する判別値を変えることが出来る。たとえば確実に顔が入るような顔部分アップの撮影の場合は表示判別値を高くしておくようなことが可能になる。
さらに、従来表示していたよりも被写体の顔評価値が低い場合でも表示を行うことで、枠表示の急激な変化を避け、かつ、表示の信頼性をインジケータで確認することが確保することが出来る。
<枠表示の第1の実施形態の第2変形例>
次に、顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠表示と前記標準化された顔評価値の対応を示すインジケータ等を表示する時に、インジケータ上に顔評価値を表す表示をする例を図9に示す。
インジケータ等としては、図7と同じく、右端にグラデーション表示されたインジケータI1と、右下に50%(L1)右上に100%(L2)の表示をし、さらに矢印で、顔を表す枠の顔評価値を示すように表示している。操作者(あるいはユーザ)はインジケータ等を見ることによって、標準化された顔評価値の値をより正確に知ることができる。
図10はCPU20が、顔評価値に応じて枠を連続的または段階的に表示すると共にインジケータ上に顔評価値を表示する処理手順を示すフローチャートである。本フローチャートは、図8の変形例であるので、図8と異なる部分のみ説明する。
画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、インジケータ等表示(ステップS106)まで、顔検出数の判別(ステップS110)、撮影判別および撮影の場合の処理(ステップS200、S202)、および終了判定処理(ステップS210)は図8と同様である。また、検出結果1の標準化された顔評価値の表示判別(ステップS114)および、表示判別値以上の場合に枠線を表示する(ステップS120、S186)も同様である。
ステップS186で枠を表示した後、ステップS188で検出結果1の標準化された顔評価値をインジケータ上に表示する。その後(ステップS190、ステップS192)は図8と同様である。
これにより、操作者はインジケータにより顔を表す枠の顔評価値をより詳細に知ることができる。これにより、枠を表示する表示判別値を設定することがより容易になる。また、前述したように従来は表示していなかった低い顔評価値の部分にも表示を行うことにより、顔を表す枠の表示の明滅を避け、かつ顔を表す枠の顔評価値をインジケータ上に表示することで表示されている枠の信頼性を示すことが可能になる。
<枠表示の第1の実施形態の第3変形例>
次に、顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠表示と前記標準化された顔評価値の対応を示すインジケータ等を表示する時に、インジケータ上に顔評価値を表す表示をすると共に、検出結果別に表示色を変えた例を図11に示す。
インジケータ等としては、図9と同じく、右端にグラデーション表示されたインジケータと数値表示をし、さらに指標(矢印)で、顔を表す枠の顔評価値を示すように表示している。さらに、複数の顔を検出した場合にインジケータ等を見誤らないために、検出結果ごとにインジケータ等と顔を表す枠の色を同一色とし、異なる顔の表示には異なる色を使用して表示している。
図11(a)では、左側の人物の顔を表す枠A4と、インジケータI5、矢印I6、が同一色、右側の人物の顔を表す枠A5と、インジケータI3、I4を同一色としている。なお、数値表示L1およびL2はどちらかの枠の色に合わせても良い。検出結果1を表す色にしておけば表示色が頻繁に変わることが無く好都合である。また、枠の色と異なる色としても良い。ここでは表示していないが、カメラの他の情報を表示する色(たとえば白色)と同じにすると、回路やプログラムを共用化できるなどの利点がある。
また、図11(b)では、インジケータI7を共通とし、左側の人物の顔を表す枠A4と矢印I8が同一色、右側の人物の顔を表す枠A5と矢印I9を同一色として判別しやすくしている。数値表示L1、L2およびインジケータI7はどちらかの枠の色に合わせても良い。検出結果1を表す色にしておけば表示色が頻繁に変わることが無く好都合である。また、枠の色と異なる色としても良い。ここでは表示していないが、カメラの他の情報を表示する色(たとえば白色)と同じにすると、回路やプログラムを共用化できるなどの利点がある。
これにより、操作者は検出された顔ごとの標準化された顔評価値をインジケータにより詳細に知ることができる。
<枠表示の第1の実施形態の第4変形例>
図12は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠の色相を顔評価値に応じて変え、表示する例である。
ここでは、標準化された顔評価値を高(a)、中(b)、低(c)の3段階になるように判別し、高の場合は緑色の枠A6(図12(a))、中の場合は黄色の枠A7(図12(b))、低の場合は赤色の枠A8(図12(c)) を表示する。これにより、枠線の色で標準化された顔評価値のおよその値を知ることができる。ここでは3段階に分けて表示しているが、無段階でも構わない。この場合は色相が順次変化していくことになろう。
図13は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠の色相を顔評価値に応じて変え、表示するフローチャートである。本フローチャートは、図6の変形例であるので、図6と異なる部分のみ説明する。
画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、顔検出数の判別(ステップS110)、撮影判別および撮影の場合の処理(ステップS200、S202)、表示した検出結果の消去と、検出数の減算処理(ステップS190、S192)、および終了判定処理(ステップS210)は図6と同様である。
ステップS110の顔検出数の判別において、検出数が0で無かった場合にステップS130で、検出結果1の標準化された顔評価値xが高(x>80%) であるか否かを判別する。高であると判別された場合はステップS136に進み、検出結果の枠色設定に緑色を代入する。高でないと判別された場合はステップS132へ進み、前記顔評価値xが中(x>60%)であるか否かを判別する。ここで、中であると判別された場合はステップS138に進み、検出結果の枠色設定に黄色を代入する。中でないと判別された場合はステップS134へ進み、前記顔評価値xが低(x>50%)であるか否かを判別する。ここで、低であると判別された場合はステップS138に進み、検出結果の枠色設定に赤色を代入する。低でないと判別された場合、すなわち前記顔評価値が低く、顔と判断するのが難しい場合は、表示せずステップS190に進む。それ以外の場合は、ステップS136、S138、S140で設定された枠色で検出結果1の顔を表す枠を表示する。以後、顔検出数の数だけ同様の処理を繰り返す。
これにより、標準化された顔評価値のおよその値を、顔を表す枠の色相から知ることができる。また、従来表示していたよりも被写体の顔評価値が低い場合でも顔を表す枠を表示することで、枠の表示の明滅を避けることが出来る。表示された顔の顔評価値の信頼性は色を見ることで判断することが可能である。
<枠表示の第1の実施形態の第5変形例>
図14は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠の枠線を構成する線分方向表示率を顔評価値に応じて変え、表示する例である。
ここでは、標準化された顔評価値を枠線を構成する線分方向表示率として表示する。例えば、枠線の線分方向に、枠線が全て表示されている場合、すなわち実線で表示されている場合を100%、枠線が表示されている部分が単位長さを考えた時に50%である時、すなわち破線であって線分の割合が50%である時は50%という形で表示する。また別の表示方法としては、枠線の全体の長さを100%とした時に、枠線として表示されている割合が50%であっても良い。これにより直感的に、枠線の表示で標準化された顔評価値のおよその値を知ることができる。
図15は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠の枠線を構成する線分方向表示率を顔評価値に応じて変え、表示するフローチャートである。本フローチャートは、図8の変形例であるので、図8と異なる部分のみ説明する。
画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、顔検出数の判別(ステップS110)、撮影判別および撮影の場合の処理(ステップS200、S202)、表示した検出結果の消去と、検出数の減算処理(ステップS190、S192)、および終了判定処理(ステップS210)は図8と同様である。図8にあるインジケータ等表示(ステップS106)は、図15には無いが、あっても構わない。枠線の線分方向表示率は、それが表す値(割合)を検出しやすいが、インジケータ等でさらに表示することも有効である。
ステップS110の顔検出数の判別において、検出数が0で無かった場合にステップS114に進み、検出結果1の標準化された顔評価値があらかじめ表示する下限として設定された数値(ここではX)以上であるかどうかを判別する。検出結果1の標準化された顔評価値がX以上である場合は枠を表示するので、ステップS142へ進む。ここで、検出結果1の標準化された顔評価値と等しい線分方向表示率の枠線で枠を表示する。その後ステップS190に進む。一方、検出結果1の標準化された顔評価値がX未満である場合は枠を表示せず、ステップS190へ進む。ステップ190以降は図8と同じであるので説明を省略する。
これにより、標準化された顔評価値のおよその値を、顔を表す枠の枠線線分方向表示率から知ることができる。また、従来表示していたよりも被写体の顔評価値が低い場合でも顔を表す枠を表示することで、枠の表示をする、しないという明滅を避けることが出来る。表示された顔の顔評価値の信頼性は枠線の線分方向表示率で判断することが可能である他、顔評価値が低い場合は表示部分が少なくなるので、常時表示しても煩わしくない表示とすることが出来る。
<枠表示の第1の実施形態の第6変形例>
図16は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠の枠線を構成する線分の幅を顔評価値に応じて変え、表示する例である。
ここでは、標準化された顔評価値を枠線の幅として表示する。顔評価値が高い場合には太く、顔評価値が低い場合には細く表示する。太くする場合、枠線表示の位置を決め、その位置を中心として幅を増加させる方法、枠線の内側にのみ幅を増加させる方法、枠線の外側に幅を増加させる方法がある。枠線の位置を中心として増加させる方法は、一般的にCPU20に予め備わっている機能であることが多く、プログラムが容易になるという利点がある。また、枠線の内側にのみ幅を増加させる場合には、複数の顔があって、さらに近接している場合に他の枠の表示を阻害することが無いという利点がある。枠線の外側にのみ幅を増加させる場合には、枠の内側に表示される顔の確認をじゃましないという利点がある。
また、枠線の幅で表示した場合に、太い細いという概ねの幅で顔評価値が大きい小さいという判断は可能であるが、より詳細に顔評価値を提示したい場合はインジケータを表示すると良い。図16の右端に表示してあるのが、上端が表示する枠線の線幅の上限を、下端が線幅の下限を示すインジケータI10である。また、インジケータに線幅と顔評価値を対応づける値を示す表示をしても良い。ここでは上端の枠線の線幅の上限を示す値L2と、下端の線幅の下限を示す値L1を表示している。もちろん、中間の値を表示しても良いし、インジケータI10に目盛りを付けても良い。また、矢印などで顔評価値をインジケータI10上に表示しても良い。
これらにより直感的に、枠線の幅の表示で、標準化された顔評価値のおよその値を知ることができる。尚、幅を変化させて表示するのは線の全体でなくとも良い。例えば一定間隔で線分の幅の変化する場所と、変化しない場所が繰り返されても良い。枠線が細くなって視認性が悪くなることを防ぐことが可能である。
図17は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠の枠線幅を顔評価値に応じて変え、表示するフローチャートである。本フローチャートは、図8の変形例であるので、図8と異なる部分のみ説明する。
画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、インジケータ等表示(ステップS106)、顔検出数の判別(ステップS110)、撮影判別および撮影の場合の処理(ステップS200、S202)、表示した検出結果の消去と、検出数の減算処理(ステップS190、S192)、および終了判定処理(ステップS210)は図8と同様である。インジケータ等表示(ステップS106)はあっても無くても構わない。
ステップS110の顔検出数の判別において、検出数が0で無かった場合にステップS114に進み、検出結果1の標準化された顔評価値があらかじめ表示する下限として設定された数値(ここではX)以上であるかどうかを判別する。検出結果1の標準化された顔評価値がX以上である場合は枠を表示するので、ステップS144へ進む。ここで、検出結果1の標準化された顔評価値に応じた線幅の枠線で枠を表示する。例えば、100%の顔評価値の場合は10ドット幅の線、50%の顔評価値の場合は5ドットの線で表示する。その後ステップS190に進む。一方、検出結果1の標準化された顔評価値がX未満である場合は枠を表示せず、ステップS190へ進む。ステップ190以降は図8と同じであるので説明を省略する。
これにより、標準化された顔評価値のおよその値を、顔を表す枠の枠線幅から知ることができる。また、従来の枠の表示をする、しないという動作による枠表示の明滅を避け、連続した枠表示とすることが出来る。表示された顔の顔評価値は枠線幅で判断することが可能である他、インジケータを表示した場合はより詳細に知ることが出来る。
顔評価値が低い場合は表示部分が少なくなるので、常時表示しても煩わしくない表示とすることが出来る。
<枠表示の第1の実施形態の第7変形例>
図18は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠線の時間的な表示率を顔評価値に応じて変え、表示する例である。ここでは、標準化された顔評価値を枠線の時間的表示率として表示する。顔評価値が67%の場合、ある単位時間中に枠が表示されている時間が67%の時間(D1および(a))であるように、また表示されていない時間が33%の時間(D2および(b))であるように枠の表示を行う。単位時間は短いと新たな明滅の問題が生じるので、ある程度長い時間であるのが望ましい。尚、画像表示は当然のことであるが常時表示をしている(D3)。
図19は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、枠の枠線の時間的な表示率を顔評価値に応じて変え、表示するフローチャートである。本フローチャートは、図8の変形例であるので、図8と異なる部分のみ説明する。
画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、顔検出数の判別(ステップS110)、撮影判別および撮影の場合の処理(ステップS200、S202)、表示した検出結果の消去と、検出数の減算処理(ステップS190、S192)、および終了判定処理(ステップS210)は図8と同様である。図8にあるインジケータ等表示(ステップS106)は、図19には無いが、あっても構わない。
ステップS110の顔検出数の判別において、検出数が0で無かった場合にステップS114に進み、検出結果1の標準化された顔評価値があらかじめ表示する下限として設定された数値(ここではX)以上であるかどうかを判別する。検出結果1の標準化された顔評価値がX以上である場合は枠を表示するので、ステップS146へ進む。ここで、検出結果1の標準化された顔評価値にあらかじめ設定された基準時間を乗算した間隔で、検出結果1の枠を点滅表示する。例えば標準化された顔評価値が100%の場合は、常時枠が表示されることとなるし、標準化された顔評価値が50%の場合は、基準時間が1秒であれば0.5秒は表示し、残り0.5秒は非表示となる。ここではステップS146として記述してあるが、実際にはステップS146は常時ルーチンが回っていることになる。
その後ステップS190に進む。一方、検出結果1の標準化された顔評価値がX未満である場合は枠を表示せず、ステップS190へ進む。ステップ190以降は図8と同じであるので説明を省略する。
これにより従来の、枠の表示をする、しないという2値表示でなく、常時枠が明滅しており、枠の表示されている時間割合で標準化された顔評価値のおよその値を知ることができる。
<枠表示の第1の実施形態の第8変形例>
図20は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、標準化された顔評価値を数値として枠線と共に表示(L3)する例である。
ここでは、100%を基準として標準化された顔評価値を表示しているが、標準化する基準値は必要に応じて選ぶことが出来る。例えば10を基準として標準化された顔評価値を表しても構わないし、%表示で無くともかまわない。また、他の枠線の表示と組み合わせても良いし、インジケータと組み合わせても良い。標準化された顔評価値がより具体的に検出できるようになるという利点がある。
図21は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、標準化された顔評価値を数値として枠線と共に表示(L3)するフローチャートである。本フローチャートは、図8の変形例であるので、図8と異なる部分のみ説明する。
画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、顔検出数の判別(ステップS110)、撮影判別および撮影の場合の処理(ステップS200、S202)、表示した検出結果の消去と、検出数の減算処理(ステップS190、S192)、および終了判定処理(ステップS210)は図8と同様である。図8にあるインジケータ等表示(ステップS106)は、図21には無いが、あっても構わない。
ステップS110の顔検出数の判別において、検出数が0で無かった場合にステップS114に進み、検出結果1の標準化された顔評価値があらかじめ表示する下限として設定された数値(ここではX)以上であるかどうかを判別する。検出結果1の標準化された顔評価値がX以上である場合は枠を表示するので、ステップS186へ進む。ここで顔を表す枠を表示した後、ステップS187で、検出結果1の標準化された顔評価値を表示する。ここでは数値として表示しているが、その他の表示方法でも構わない。例えば、円グラフなどの形や、特定形のインジケータの大小等で表示することも可能である。
その後ステップS190に進む。一方、検出結果1の標準化された顔評価値がX未満である場合は枠を表示せず、ステップS190へ進む。ステップ190以降は図8と同じであるので説明を省略する。
これにより顔評価値が算出できた場合にはある値以上の場合に顔を表す枠を表示することで、従来の、枠の表示をする、しないという2値表示でなく、連続的な表示とすることが出来る。また、その評価値を表示することで標準化された顔評価値を知ることができる。
また、これらの変形例は組み合わせて実施することが可能である。複数の例を組み合わせることにより、より滑らかな表示が可能となる。例えば枠線濃度を変化させながら、さらに枠線幅を変化させることが可能である。もちろん、この2例の組み合わせに限るものではないし、2例以上の組み合わせも可能である。なお、ステップ186では、標準化された顔評価値に応じて枠の色や濃度を変更してもよいし、枠表示を行う場合には、顔評価値にかかわらず、一定の枠を表示するようにしてもよい。
次に、前記撮像装置1の表示部22に、前記顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合に、あるいは、標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、前記顔を表す枠の表示を時間的に変化させる例について詳述する。
<枠表示の第2の実施形態>
顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示する際に時間経過と共に変化させる例を図22に示す。この例では標準化された顔評価値を、枠線の濃淡として表示している。すなわち、標準化された顔評価値が小さい場合は枠線の濃度が淡く表示され、顔評価値が大きい場合は枠線の濃度が濃く表示される。
そして、例えば枠線の表示判別値がX%であった場合に、顔評価値が表示判別値以上から、表示判別値未満に変化した時、枠表示を瞬時に中止するのではなく、枠線が徐々に非表示となるようにする。図22では、左端が標準化された顔評価値が表示判別値を越えている時であり、この時、顔を表す枠線は例えば評価値に基づいた濃度で表示されている(A20)。ここで、標準化された顔評価値が表示判別値以上で、顔を表す枠を表示していた時、顔評価値が変化し、表示判別値を下回った場合、瞬時に顔を表す枠線を非表示とすると、再び標準化された顔評価値が表示判別値を上回った場合に、再度表示されることとなり、表示が明滅する。そこで、表示をA21からA24に至るように時間経過と共に非表示とすることで、急激な顔を表す枠の表示変化を避けることが出来る。また、枠線の表示判別値がX%であった場合に、顔評価値が表示判別値未満から表示判別値以上に変化した時、枠表示を瞬時に行うのではなく、枠線が徐々に表示となるようにする。図22で説明を行うと、右端が標準化された顔評価値が表示判別値未満の時であり、この時顔を表す枠は表示されていない(A24)。ここで、標準化された顔評価値が表示判別値を上回った場合、瞬時に顔を表す枠線を表示すると、再び標準化された顔評価値が表示判別値を下回った場合に、再度非表示とされることとなり、表示が明滅する。そこで、表示をA24からA20に至るように時間経過と共に表示することで、急激な顔を表す枠の表示変化を避けることが出来る。つまり、顔評価値が表示判別値以上から未満に変化したとしても、急激に顔を表す枠が消えるのではなく、徐々に消えるようにする。そのように表示することによって急な表示変化を避けることが出来るだけでなく、顔評価値が表示判別値前後で推移している場合にもわずかな表示変化ですみ、滑らかな表示が可能になる。
このように、枠を非表示から表示と判別した時、あるいは表示から非表示と判別した時に、時間経過によって連続的または段階的に表示あるいは非表示とすることで、従来のような枠の表示、非表示という急激な表示変化ではなく、滑らかな枠の表示を行うことができる。
次に、顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合に、あるいは、標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、前記顔を表す枠の表示を時間的に変化させる例について詳述する。非表示から表示への時間的変化と、表示から非表示への時間的変化は、変化方向が異なるが内容は同じであるために、ここでは標準化された顔評価値が表示判別値以上から、表示判別値未満になった時の処理について代表して説明する。また、検出した顔が複数である場合も想定されるが、説明が煩雑となるのでここでは検出した顔はひとつであるとして説明する。複数の場合は、検出したそれぞれの顔の顔評価値に応じて処理することになる。例えばある顔を表す枠は顔検出値が表示判別値以上であるので表示されたまま、別の顔を表す枠は顔検出値が表示判別値未満となったために徐々に非表示となっていく。このような動作に関しては、それぞれの顔の表示に以下の説明を当てはめることで理解できるであろう。
図23はCPU20が、顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合に、あるいは、標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、前記顔を表す枠の表示を時間的に変化させるフローチャートである。
まず、使用する変数Aおよび変数Bに0を代入して初期化する(ステップS90)。次に画像入力部10より画像を入力あるいは撮像して得た画像信号を、入力信号処理部において信号処理を行い画像として取得する(ステップS100)。次に顔検出部において、入力画像から、そこに含まれる被写体の特定対象、すなわち、顔、目、瞳、鼻、口等を検出し、それらの特徴点、パターンを識別することにより被写体の顔を検出する(ステップS102)。次に、画像入力部10から入力された画像を表示する(ステップS104)。次にステップS112において、顔検出がされたか否かを判別する。ここで顔検出されたか否かの判別には、顔評価値を使用しても良いし、顔評価値をは別の評価値を用いても良い。ステップS112において、顔が検出されたと判断した場合はステップS114へ、そうでない場合はステップS200に進む。
ステップS114では検出された顔の標準化された顔評価値があらかじめ表示する下限として設定された数値(ここではX)以上であるかどうかを判別する。標準化された顔評価値がX以上である場合は枠を表示するので、ステップS120へ進む。ここで検出結果の枠線濃度に検出された顔の標準化された顔評価値を代入し、ステップS185で顔を表す枠を表示した後、ステップS189で、検出した標準化された顔評価値を変数Aに、その検出位置を変数Bに代入し、ステップS200に進む。
ステップS114で、検出された顔の標準化された顔評価値があらかじめ表示する下限として設定された数値(ここではX)未満である場合は枠が非表示となるので、ステップS300に進む。
ステップS300では、検出した顔の検出位置が変数Bに近いかどうかを判断する。検出位置が変数Bに近い場合は、前回検出した顔と同じであると判断し、ステップS320に進む。検出位置が変数Bと異なる場合は、別の顔を検出した可能性があるために処理を行わず、ステップS500に進む。尚、ここでは別の顔を検出した可能性がある場合には時間と共に顔を表す枠を非表示とする処理を行わないが、急激に被写体である人物が移動した可能性もあるために、このステップS300を省いて行うことも考えられる。また、ここでは顔を検出した位置で判断しているが、個々の顔の検出が出来る場合には、直前に検出した顔であるか否かで判断しても良い。すなわち、直前に検出した顔と同じ顔である場合には時間と共に非表示となるような処理を、直前に検出した顔と異なる顔である場合には処理を行わないようにしても良い。
ステップS320では、検出された顔の枠線濃度に変数A−変数Yを設定する。ここでは、枠線濃度が0から255で表されるとし、検出された顔評価値を255で標準化する。Yの値はAの値を時間と共に減少させる 値であるので、システム側が設定した値とするのが一般的であるが、操作者が設定できても良い。直前に顔が検出されている場合にはAに標準化された顔評価値が入っているので、A−Yの計算を行うことで、新たな枠線の枠線濃度が減少することになる。
次に、ステップS330で、検出結果の枠を表示する。この時、枠線濃度はステップS320で設定された値が使われる。
その後、ステップS340でA−Yを新たに変数Aに代入し、ステップS500で顔の検出位置を変数Bに代入し、ステップS200に進む。
ステップS200では、撮影を行うかどうかの判別をする。通常は操作部26に設けられるシャッターボタンや録画ボタン(共に図示せず)が押されたか、否かで判別する。撮影処理を行う場合はステップS202で撮影処理を行い、ステップS210に進む。撮影処理を行わない場合には直接ステップS210に進み終了か否かを判別する。終了しない場合はステップS100に戻り同様の処理を繰り返す。
これにより、顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合に、あるいは、標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、前記顔を表す枠の表示を時間的に変化させることができ、表示の明滅を避け、スムーズな顔を表す枠の表示が可能になる。
尚、ここではフローチャートでの説明の都合上、時間系列で画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)を行うようにしているが、例えば顔検出部がCPU20と独立して動作する構成であれば、顔検出(ステップS102)を行いながら、画像表示(ステップS104)を行うことも可能であるし、全体の処理短縮のためにはその方が望ましい。上記説明部だけでなく、以下の説明部分でも並列処理が可能な部分は並列処理をすることで高速化が可能である。
また、ここでは画像を表示部22に先に表示し、枠を表示部22に後から表示するようにしているが、装置の構成により、先に表示する画像と枠を合成し、合成した結果を表示部22に送り表示しても良い。
さらに、画像を表示することは必須では無い。例えば監視用途の撮像装置であり、監視内容が人物の顔が存在するか否かである場合、画像表示が無くとも顔の枠表示があれば良い。表示された枠で必要と判断した時などに、画像を表示すれば良いからである。例えば顔と検出した場合に枠を表示し、それが一定時間(例えば3秒以上など)継続して検出が続いた場合に、初めて画像を表示するようなことが考えられる。このようにすることで、注意力が必要な多くの映像が映った監視映像画面ではなく、必要な監視画面だけを監視することが可能になる。
尚、ここでは顔を表す枠を表示すると判別した時には標準化された顔評価値の枠線濃度の枠を表示し、表示から非表示に変わった時には最後に表示していた標準化された顔評価値の枠線濃度から時間と共に枠線濃度を変化させて表示するので、違和感のない滑らかな表示が可能になっている。ただしこれに限定されるものではなく、顔を表す枠を表示する場合、ここに記載のどの実施例のように表示しても問題はない。
<枠表示の第2の実施形態の第1変形例>
図24は前記撮像装置1の表示部22に顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合、あるいは標準化された顔評価値が表示判別値未満から表示判別値以上になった場合の表示を示している。顔評価値が表示判別値以下になった場合に、顔を表す枠の枠線を構成する線分方向表示率を時間と共に変化させ表示(A30からA34)する。
図25は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合、あるいは標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、顔を表す枠の枠線を構成する線分方向表示率を時間と共に変化させるフローチャートである。本フローチャートは、図23の変形例であるので、図23と異なる部分のみ説明する。
画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、顔検出の判別(ステップS112)、標準化された顔評価値が表示判別値以上かどうかの判別(ステップS114)、検出結果の枠表示(ステップS185)、変数の更新(ステップS189)、撮影判別および撮影の場合の処理(ステップS200、S202)、および終了判定処理(ステップS210)は図23と同様である。
変数初期化(ステップS92)では、変数Bと、変数nに0を代入して初期化する。
ステップS114で、表示しないと判別された場合、検出位置の判別(ステップS300)を行う。検出位置が変数Bと近く同じ顔であると判別された場合は、ステップS350に進む。検出位置が変数Bと大きく異なる場合はステップS500に進む。
ステップS350で変数nの値に1を加える。その後、ステップS360で破線率の計算をする。破線率KはK=1−Z×nで計算される。ここで、nは整数、Zは1以下の定数である。ただし、Zは操作者が設定できても良い。ステップS350でnが加算されるので、ステップS350からS370の処理を繰り返すたびに破線率が下がり、枠線を構成する単位長さあたりの表示率が下がることになる。その後、ステップS370で検出結果の枠を破線率Kの線で表示し、ステップS500で検出位置をBに代入してステップ200に進む。
以上により、顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合に、あるいは、標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、前記顔を表す枠の表示を、枠線の破線率を時間的に変化させることで表示することができ、表示の明滅を避け、スムーズな顔を表す枠の表示が可能になる。
尚、ここでは顔を表す枠を表示すると判別した時には通常の枠を表示するとして記述しているが、表示する枠を顔評価値に応じて変化させても良い。例えばこの実施例の場合、顔を表す枠を表示する場合には破線率を標準化された顔評価値で表示し、非表示に変わった場合には、最後に表示していた破線率からさらに数値を変化させていけば、違和感のない滑らかな表示が可能になる。
<枠表示の第2の実施形態の第2変形例>
図26は前記撮像装置1の表示部22に顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合、あるいは標準化された顔評価値が表示判別値未満から表示判別値以上になった場合の表示を示している。顔評価値が表示判別値以下になった場合に、顔を表す枠の枠線幅を時間と共に変化させ表示(A40からA44)する。
図27は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合、あるいは標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、顔を表す枠の枠線幅を時間と共に変化させるフローチャートである。本フローチャートは、図25の変形例であるので、図25と異なる部分のみ説明する。
変数初期化(ステップS92)、画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、顔検出の判別(ステップS112)、標準化された顔評価値が表示判別値以上かどうかの判別(ステップS114)、検出結果の枠表示(ステップS185)、変数の更新(ステップS189)、撮影判別および撮影の場合の処理(ステップS200、S202)、および終了判定処理(ステップS210)は図25と同様である。
また、検出位置の判別(ステップS300)、検出位置が変数Bと近いと判別された場合、変数nのインクリメント(ステップS350)、判別されなかった場合および後述する枠表示後の検出位置の変数Bへの代入(ステップS500)は図25と同様である。
変数nのインクリメント(ステップS350)の後、ステップS362で線幅Wを計算する。線幅はW=Y×(1−X×n)で計算される。ここで、Yは基準となる線幅、nは整数、Xは1以下の定数である。Yは最大線幅と表現しても良い。また、YおよびXは操作者が設定できても良い。ステップS350でnが加算されるので、ステップS350からS372の処理を繰り返すたびに線幅Wが減少し、枠線が徐々に細くなる。その後、ステップS372で検出結果の枠を線幅Wで表示し、ステップS500で検出位置をBに代入してステップ200に進む。
以上により、顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合に、あるいは、標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、前記顔を表す枠の枠線幅を時間的に変化させることができ、表示の明滅を避け、スムーズな顔を表す枠の表示が可能になる。
<枠表示の第2の実施形態の第3変形例>
図28は前記撮像装置1の表示部22に顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合、あるいは標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、顔を表す枠の表示時間率を時間と共に変化させ表示(D4からD8)する例を示す。
図29は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合、あるいは標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、顔を表す枠の枠線の表示時間率を時間と共に変化させるフローチャートである。本フローチャートは、図25の変形例であるので、図25と異なる部分のみ説明する。
変数初期化(ステップS92)、画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、顔検出の判別(ステップS112)、標準化された顔評価値が表示判別値以上かどうかの判別(ステップS114)、検出結果の枠表示(ステップS185)、変数の更新(ステップS189)、撮影判別および撮影の場合の処理(ステップS200、S202)、および終了判定処理(ステップS210)は図25と同様である。
また、検出位置の判別(ステップS300)、検出位置が変数Bと近いと判別された場合、変数nのインクリメント(ステップS350)、判別されなかった場合および後述する枠表示後の検出位置の変数Bへの代入(ステップS500)は図25と同様である。
変数nのインクリメント(ステップS350)の後、ステップS362で表示時間率Tを計算する。表示時間率TはT=1−U×nで計算される。ここで、nは整数、Uは1以下の定数である。尚、常数Uは操作者が設定できても良い。ステップS350でnが加算されるので、ステップS350からS374の処理を繰り返すたびに表示時間率が減少し、表示時間が徐々に少なくなる。その後、ステップS374で検出結果の枠を表示時間率Tで表示し、ステップS500で検出位置をBに代入してステップ200に進む。
以上により、顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合に、あるいは、標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、前記顔を表す枠の時間表示率を変化させることができ、表示の明滅を避け、スムーズな顔を表す枠の表示が可能になる。
<枠表示の第2の実施形態の第4変形例>
図30は前記撮像装置1の表示部22に顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合、あるいは標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、顔を表す枠を構成する複数の線分の画面内表示率を変化させ表示する(A50からA54)例を示す。さらに、ここでは表示判別値未満になった場合、あるいは表示判別値以上になった場合に、その時点からの時間経過に応じて、顔を表す枠の、複数の線分の位置を、枠の中心からの距離を変化させて上記画面内表示率を変化させている。
図30に示すように、顔評価値が表示判別値以上の場合は、顔を表す枠が表示(A50)されている。ここで顔評価値が下がり表示判別値以下になった場合に、A51に示すように顔を表す枠を構成する複数の線分に枠が分離し、さらに個々の線分がランダムに回転しながら、枠の中心から周辺に向かって移動していく。
このように表示することにより、表示から非表示となった場合に急激に顔を表す枠が消えるのではなく、徐々に画面から消えていく表示をすることで、滑らかな表示変化とすることが出来る。
尚、ここで個々の線分が回転することは必須では無い。表示のためのCPU20の計算量が少なくてすむという利点がある。個々の成分を回転させた場合は爆発的に枠が消える雰囲気を出すことが出来る。より爆発的に消去する雰囲気を出すためには、個々の線分について回転方向、回転速度をランダムに決定し、表示変化の間は方向も含め等速回転するのが望ましい。また個々の線分が、顔を表す枠の中心より周辺に向かって移動する速度は等速でも構わないし、初速が速く、その後やや速度を落としても、初速は遅く、その後やや速度を上げても構わない。等速で表示する場合は、より爆発の雰囲気を表すことが可能である。初速が速く、その後やや速度を落とす表示の場合は、顔評価値が下がり、表示判別値未満になった後、再度顔評価値が上がった場合に枠が顔の周囲から集まってくる表現がしやすくなる。また、初速が遅く、その後やや速度を上げる表示の場合は、表示判別値付近で顔評価値が上下しているような場合に、顔を表す枠の表示変化を少なくすることが出来、滑らかな表示が可能になる。
さらに、ここでは顔を表す枠の中心から周辺に向かって、顔を表す枠の複数の線分が移動する例を示しているが、個々の線分が顔を表す枠の中心に向かって移動しても良い。この場合、中心には被写体としての顔がある場合があるので、個々の線分が中心に移動すると共に枠線の濃度を下げるなどをするのが望ましい。
図31は顔検出部30から出力された、前記標準化された顔評価値と、顔を表す枠の位置から、顔を表す枠表示をCPU20が生成し、表示部22に表示すると共に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合、あるいは標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、顔を表す枠の枠線を構成する個々の線分の画面内表示率を時間と共に変化させるフローチャートである。本フローチャートは、図25の変形例であるので、図25と異なる部分のみ説明する。
まず、使用する変数Bに0を代入して初期化する(ステップS92)。次に、個々の線分の回転方向、回転速度を設定する(ステップS96)。本実施例では毎回設定を行うので、枠の変化が毎回変わることとなり、枠表示の時間変化の様子が毎回変わることとなり、変化に富んだ表示とすることが出来る。しかし、あらかじめ決定しておいても良い。その場合は計算量が少なくなりスムーズな動作とすることが出来る利点がある。その後の画像取得(ステップS100)、顔検出(ステップS102)、画像表示(ステップS104)、顔検出の判別(ステップS112)、標準化された顔評価値が表示判別値以上かどうかの判別(ステップS114)、検出結果の枠表示(ステップS185)、変数の更新(ステップS189)、撮影判別および撮影の場合の処理(ステップS200、S202)、および終了判定処理(ステップS210)は図25と同様である。
ステップS300において検出位置の判別を行い検出位置が変数Bと近いと判別された場合、ステップS366で個々の線分の位置及び回転量を計算する。ここでは、あらかじめ設定された画面内表示率が変化するように計算を行う。ただし、表示の切り替わり時、一時的に表示が変化しても、画面内表示率は変化しない場合(図30のA50からA51への変化など)がある。その後、ステップS376で枠断片を表示する。その後の検出位置の変数Bへの代入(ステップS500)は図25と同様である。
以上により、顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合に、あるいは、標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、前記顔を表す枠の枠線の画面内表示率を時間的に変化させることができ、表示の明滅を避け、スムーズな顔を表す枠の表示が可能になる。
また、枠線が断片となり徐々に画面内に表示されなくなるので、効果的な表示とすることが出来る。
さらに、これらの変形例は組み合わせて実施することが可能である。図32は、顔を表す枠を表示する際に、標準化された顔評価値が表示判別値以上から表示判別値未満になった場合に、あるいは、標準化された顔評価値が表示判別値未満から表示判別値以上になった場合に、前記顔を表す枠の枠線の画面内表示率を時間と共に変化させ、さらに時間と共に枠線濃度も変化させる(A60からA64)例である。ふたつを組み合わせることにより、より滑らかな表示変化が可能となる。
加えて、顔を表す枠を顔評価値によって連続的または段階的に表示することと、顔評価値が表示判別値未満になった場合などに、時間と共に連続的または段階的に表示変化させることを組み合わせても良い。例えば顔評価値が表示判別値以上である時は、ある一定線幅以上の顔を表す枠を表示し、表示判別値未満となった時は一定線幅から時間と共に線幅が減少するようにしても良い。これによって、より滑らかな枠の表示を行うことができる。顔評価値が表示判別値以上の場合は線幅の変化で、表示判別値未満の場合は枠線濃度と線幅の変化で表示するなどのように、複数の組み合わせを行うことが出来ると、より滑らかで効果的な表示を行うことが出来る。
ここまでの例では顔を表す枠は、顔を取り囲む連続した線または線分の集合として記述してきたが、枠には他の種類もある。図33は枠の例とその変化を示したものである。(a)は顔を取り囲む4つの星で枠を構成している例である。この場合、線幅に相当するものは大きさになるために、図33(a)の枠A71から図33(b)の枠A72のように変化する。
図33(c)は顔の左上角、および右下角だけを表示した枠の例である。ここでは枠の枠線濃度を、図33(c)の枠A73から図33(d)の枠A74のように変え表示した例を示す。
また、図33(e)、(f)は半球状の枠A75,A76を顔の対角位置に表示した例である。図33(e)は枠A75の線分方向表示率が100%の場合、図33(f)は線分方向表示率が20%の例である。半球であるので、線分の方向は半径と直角方法となり、このような表示となる。ここでは線分方向表示率が下がると半球の中心線部分から表示されなくなる例を示しているが、逆に周辺部分から表示されなくなっても良い。
図33(g)は円A77で顔評価値を表示した例である。顔評価値が変化すると、図33(g)の円A77から図33(h)の円A78のように大きさの変化で表示する。ここでは大きさで表示しているが、濃度で表示しても良い。
また、ここでは特定対象を顔として説明しているが、被写体の特定対象であれば、頭部、目、瞳、赤目、閉じた目、眼鏡、眉、口、唇、口などの人物の一部や、人物全体、さらには車、動物、花などの植物など数々の対象に対して応用が可能である。一例をあげれば、植物の観察に用い、開花などを撮像表示する装置に用いても良い。また、前述したように撮像装置だけでなく、監視装置などにも応用が可能である。さらに、一部の表示を表示部で表示するのではなく、スピーカ部などで音を用いて表現しても良い。
図1は本発明に係る画像表示装置の内部構成の一例を示すブロック図である。 図2は図1の顔検出部の詳細な実施の形態を示すブロック図である。 図3は出力手段から出力される、標準化された顔評価値と、前記検出位置およびパラメータの検出位置から得られる顔を表す枠の位置情報を示す表である。 図4は顔検出部から出力された標準化された顔評価値と顔を表す枠の位置から、顔を表す枠表示をCPUが生成し、表示部に表示する例を示したものである。 図5は顔評価値を標準化するためのテーブルの例を示したものである。 図6はCPUが、顔評価値に応じて枠を連続的または段階的に表示する処理手順を示すフローチャートを示したものである。 図7は顔評価値に応じて枠を連続的または段階的に表示すると共にインジケータを表示する例を示したものである。 図8はCPUが、顔評価値に応じて枠を連続的または段階的に表示すると共にインジケータを表示する処理手順を示すフローチャートである。 図9は顔評価値に応じて枠を連続的または段階的に表示すると共にインジケータを表示する時にインジケータ上に顔評価値を表す表示をする例を示したものである。 図10はCPUが、顔評価値に応じて枠を連続的または段階的に表示すると共にインジケータを表示する時にインジケータ上に顔評価値を表す表示をする処理手順を示すフローチャートである。 図11は顔評価値に応じて枠を連続的または段階的に表示すると共にインジケータを表示する時に、インジケータ上に顔評価値を表す表示をすると共に、検出結果別に表示色を変えた例を示したものである。 図12は顔評価値に応じて枠を連続的または段階的に表示する時に、枠の色相を顔評価値に応じて変えた例を示したものである。 図13はCPUが、顔評価値に応じて枠を連続的または段階的に表示する時に、枠の色相を顔評価値に応じて変えた表示するフローチャートである。 図14は顔評価値に応じて枠を連続的または段階的に表示する時に、枠の枠線を構成する線分方向表示率を顔評価値に応じて変え、表示する例を示したものである。 図15はCPUが、顔評価値に応じて枠を連続的または段階的に表示する時に、枠の線分方向表示率を顔評価値に応じて変え表示するフローチャートである。 図16は顔評価値に応じて枠を連続的または段階的に表示する時に、枠の枠線幅を顔評価値に応じて変え表示する例を示したものである。 図17はCPUが顔評価値に応じて枠を連続的または段階的に表示する時に、枠の枠線幅を顔評価値に応じて変え表示するフローチャートである。 図18は顔評価値に応じて枠を連続的または段階的に表示する時に、枠線の時間的な表示率を顔評価値に応じて変え、表示する例を示したものである。 図19はCPUが顔評価値に応じて枠を連続的または段階的に表示する時に、枠線の時間的な表示率を顔評価値に応じて変え表示するフローチャートである。 図20は顔評価値に応じて枠を連続的または段階的に表示する時に、標準化された顔評価値を数値として枠線と共に表示する例を示したものである。 図21はCPUが顔評価値に応じて枠を連続的または段階的に表示する時に、標準化された顔評価値を数値として枠線と共に表示するフローチャートである。 図22は顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠を時間経過と共に変化させる例を示したものである。 図23CPUが顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠を時間経過と共に変化させるよう表示するフローチャートである。 図24は顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠の線分方向表示率を時間と共に変化させる例を示したものである。 図25はCPUが、顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠の線分方向表示率を時間と共に変化させるフローチャートである。 図26は顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠の枠線幅を時間と共に変化させる例を示したものである。 図27はCPUが、顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠の枠線幅を時間と共に変化させるフローチャートである。 図28は顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠の表示時間率を時間と共に変化させる例を示したものである。 図29はCPUが、顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠の表示時間率を時間と共に変化させるフローチャートである。 図30は顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠の画面内表示率を時間と共に変化させる例を示したものである。 図31はCPUが、顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、枠の画面内表示率を時間と共に変化させるフローチャートである。 図32は、顔評価値が顔を表す枠の表示判別値以上となった時、または未満となった時に、複数の手段で枠を時間経過と共に変化させる例を示したものである。 図33は顔を表す枠とその表示変化の例を示したものである。 図34は従来の顔を表す枠の表示を説明したものである。
符号の説明
10…画像入力部(撮像部)、12…入力信号処理部、20…CPU、22…表示部、24…画像記録部、26…操作部、28…通信部、30…特定対象検出部(顔検出部)

Claims (19)

  1. 画像信号を入力する画像入力手段と、
    前記画像信号に含まれる特定対象を、その特定対象らしさを示す特定対象評価値によって検出する特定対象検出手段と、
    検出された特定対象を囲む枠を示す枠表示情報を生成する枠表示情報生成手段であって、前記特定対象評価値に応じて前記枠を連続的または段階的に変化させる枠表示情報生成手段と、
    前記生成された枠表示情報に基づいて、前記枠を表示する表示手段と、
    を備えたことを特徴とする画像表示装置。
  2. 前記枠表示情報生成手段は、特定対象評価値に応じて、前記枠の、枠線の濃淡、枠線の色相、枠線を構成する線分方向表示率、および枠線の幅の少なくともいずれかを変化させる枠表示情報を生成することを特徴とする請求項1に記載の画像表示装置。
  3. 前記枠表示情報生成手段は、前記特定対象評価値に応じて、前記枠の、枠線の時間的表示率を変化させる枠表示情報を生成することを特徴とする請求項1に記載の画像表示装置。
  4. 前記表示手段に、さらに、前記枠の表示と前記特定対象評価値との対応を示すインジケータを表示することを特徴とする請求項1または2に記載の画像表示装置。
  5. 前記表示手段に、さらに、前記特定対象評価値を表す表示をすることを特徴とする請求項1から4のいずれかに記載の画像表示装置。
  6. 前記画像信号に前記特定対象が複数含まれる場合、少なくとも2色以上の異なる色をそれぞれに用いた、前記特定対象を囲む個々の枠を示す枠表示情報を前記枠表示情報生成手段が生成することを特徴とする請求項1から5のいずれかに記載の画像表示装置。
  7. 画像信号を入力する画像入力手段と、
    前記画像信号に含まれる特定対象を、その特定対象評価値によって検出する特定対象検出手段と、
    検出された特定対象を囲む枠を示す枠表示情報を生成する枠表示情報生成手段と、
    前記特定対象評価値を表す数値と共に、前記生成された枠表示情報に基づいた前記枠を合成表示する表示手段と、
    を備えたことを特徴とする画像表示装置。
  8. 前記枠を表示するか否かの判別を前記特定対象評価値に応じて行う表示判別手段をさらに備え、前記特定対象評価値が所定の表示判別値以上であるときに、前記枠を表示することを特徴とする請求項1から7のいずれかに記載の画像表示装置。
  9. 画像信号を入力する画像入力手段と、
    前記画像信号に含まれる特定対象を、その特定対象らしさを示す特定対象評価値によって検出する特定対象検出手段と、
    検出された特定対象を囲む枠を示す枠表示情報を生成する枠表示情報生成手段と、
    前記生成された枠表示情報に基づいて前記枠を表示する表示手段と、
    前記特定対象らしさを示す特定対象評価値が所定の表示判別値以上であるときに、前記枠を表示する表示判別手段と、
    を備え、
    前記表示枠情報生成手段は、前記表示判別手段により、前記枠を表示から非表示と判別した時は時間経過と共に徐々に非表示となるよう、また前記枠を非表示から表示と判別した時は、前記枠が時間経過と共に徐々に表示となるように、前記枠表示情報を生成することを特徴とする画像表示装置。
  10. 前記枠表示情報生成手段は、前記表示から非表示と判別した時点、または前記非表示から表示と判別した時点からの時間経過に応じて、前記枠の、枠線の濃淡、枠線を構成する線分方向表示率、枠線の幅、枠の表示倍率、および枠線の時間的表示率の少なくともいずれかを変化させる枠表示情報を生成することを特徴とする請求項9に記載の画像表示装置。
  11. 前記枠表示情報生成手段は、前記表示から非表示と判別した時点、または前記非表示から表示と判別した時点からの時間経過に応じて、前記枠の、複数の線分から構成される枠線の線分の画面内表示率を変化させる枠表示情報を生成することを特徴とする請求項9に記載の画像表示装置。
  12. 前記枠表示情報生成手段は、前期時間経過に応じて、前記枠の、複数の線分から構成される枠線の個々の線分の枠中心からの距離を変化させる枠表示情報を生成することを特徴とする請求項11に記載の画像表示装置。
  13. 前記表示判別値を操作者が入力可能であることを特徴とする請求項8から12のいずれかに記載の画像表示装置。
  14. 前記表示手段は、前記画像信号に基づいて画像を表示すると共に、前記枠を合成表示することを特徴とする請求項1から13のいずれかに記載の画像表示装置。
  15. 前記特定対象が顔であり、前記特定対象検出手段が顔検出手段である、請求項1から14のいずれかの画像表示装置。
  16. 請求項1から15のいずれかに記載の画像表示装置と、前記画像入力手段として機能する撮像手段と、
    を備えたことを特徴とする撮像装置。
  17. 被写体像を表す画像信号を得て、
    前記画像信号に含まれる特定対象を、その特定対象らしさを示す特定対象評価値によって検出し、
    検出された特定対象を囲む枠を示す枠表示情報を生成し、
    前記特定対象評価値に応じて前記枠を連続的または段階的に変化させた枠表示情報を表示手段に表示することを特徴とする画像表示方法。
  18. 被写体を表す画像信号を得て、
    前記画像信号に含まれる特定対象を、その特定対象らしさを示す特定対象評価値によって検出し、
    検出された特定対象を囲む枠を示す枠表示情報を生成し、
    前記特定対象評価値に応じて前記枠を表示するか否かを判別し、
    前記枠を表示から非表示と判別した時は前記枠が時間経過と共に徐々に非表示となるよう、また、前記枠を非表示から表示と判別した時は前記枠が時間経過と共に徐々に表示となるように、前記枠表示情報を生成し、この枠表示情報に基づいて枠を表示することを特徴とする画像表示方法。
  19. 請求項17もしくは請求項18の画像表示方法において、
    さらに前記画像信号と前記枠表示情報に基づいて画像に枠を合成して表示することを特徴とする画像表示方法。
JP2006095816A 2006-03-30 2006-03-30 画像表示装置、撮像装置および画像表示方法 Active JP4507281B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2006095816A JP4507281B2 (ja) 2006-03-30 2006-03-30 画像表示装置、撮像装置および画像表示方法
US11/730,140 US8704856B2 (en) 2006-03-30 2007-03-29 Image display apparatus, image-taking apparatus and image display method
US14/198,358 US9736379B2 (en) 2006-03-30 2014-03-05 Image display apparatus, image-taking apparatus and image display method
US15/642,646 US10554894B2 (en) 2006-03-30 2017-07-06 Image display apparatus, image-taking apparatus and image display method
US16/701,958 US10841499B2 (en) 2006-03-30 2019-12-03 Image display apparatus, image-taking apparatus and image display method
US17/067,292 US11196933B2 (en) 2006-03-30 2020-10-09 Image display apparatus, image-taking apparatus and image display method
US17/517,356 US11678049B2 (en) 2006-03-30 2021-11-02 Image display apparatus, image-taking apparatus and image display method
US18/312,121 US20230276121A1 (en) 2006-03-30 2023-05-04 Image display apparatus, image-taking apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006095816A JP4507281B2 (ja) 2006-03-30 2006-03-30 画像表示装置、撮像装置および画像表示方法

Publications (2)

Publication Number Publication Date
JP2007274207A true JP2007274207A (ja) 2007-10-18
JP4507281B2 JP4507281B2 (ja) 2010-07-21

Family

ID=38604876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006095816A Active JP4507281B2 (ja) 2006-03-30 2006-03-30 画像表示装置、撮像装置および画像表示方法

Country Status (2)

Country Link
US (7) US8704856B2 (ja)
JP (1) JP4507281B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008283379A (ja) * 2007-05-09 2008-11-20 Casio Comput Co Ltd 撮像装置及びプログラム
JP2010010816A (ja) * 2008-06-24 2010-01-14 Camelot:Kk 合成画像撮影システム及び合成画像撮影方法
JP2010016798A (ja) * 2008-06-05 2010-01-21 Canon Inc 撮像装置、その制御方法及びプログラム
JP2010041621A (ja) * 2008-08-07 2010-02-18 Canon Inc 撮像装置及びその制御方法、プログラム
WO2010026696A1 (ja) * 2008-09-08 2010-03-11 パナソニック株式会社 画像処理装置、画像処理方法、画像処理プログラム、撮像装置
JP2010183559A (ja) * 2009-01-07 2010-08-19 Canon Inc 撮像装置及びその制御方法及びプログラム
JP2011504316A (ja) * 2007-11-13 2011-02-03 オラワークス・インコーポレイテッド セルフ撮影の際に顔の構図を決定できるようにサポートする方法及びシステム
JP2013211892A (ja) * 2008-06-05 2013-10-10 Canon Inc 撮像装置及びその制御方法
US8599245B2 (en) 2009-09-30 2013-12-03 Fujifilm Corporation Image processing apparatus, camera, and image processing method
US9106834B2 (en) 2011-02-07 2015-08-11 Canon Kabushiki Kaisha Image display controller capable of providing excellent visibility of display area frames, image pickup apparatus, method of controlling the image display controller, and storage medium
US9398222B2 (en) 2012-09-20 2016-07-19 Canon Kabushiki Kaisha Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus
JP2018046497A (ja) * 2016-09-16 2018-03-22 富士フイルム株式会社 画像表示制御システム,画像表示制御方法および画像表示制御プログラム
JP2018063675A (ja) * 2016-10-14 2018-04-19 キヤノン株式会社 画像処理装置および制御方法
JP2018519727A (ja) * 2015-11-06 2018-07-19 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ビデオ画像の上に情報を表示するための方法及びデバイス

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4507281B2 (ja) 2006-03-30 2010-07-21 富士フイルム株式会社 画像表示装置、撮像装置および画像表示方法
JP4789825B2 (ja) * 2007-02-20 2011-10-12 キヤノン株式会社 撮像装置及びその制御方法
US8615112B2 (en) * 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
JP4341696B2 (ja) * 2007-05-18 2009-10-07 カシオ計算機株式会社 撮像装置、顔領域検出プログラム、及び、顔領域検出方法
JP4919297B2 (ja) * 2008-03-13 2012-04-18 富士フイルム株式会社 画像評価装置および方法並びにプログラム
JP5554987B2 (ja) * 2009-12-28 2014-07-23 キヤノン株式会社 オブジェクト識別装置及びその制御方法
US8726161B2 (en) * 2010-10-19 2014-05-13 Apple Inc. Visual presentation composition
US20120243751A1 (en) * 2011-03-24 2012-09-27 Zhihong Zheng Baseline face analysis
US20130147980A1 (en) * 2011-12-08 2013-06-13 Research In Motion Limited Apparatus and associated method for face tracking in video conference and video chat communications
JP2013165366A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5966584B2 (ja) * 2012-05-11 2016-08-10 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP5761272B2 (ja) * 2013-08-06 2015-08-12 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
CN106934328A (zh) * 2015-12-30 2017-07-07 厦门中控生物识别信息技术有限公司 一种人脸检测算法的评估方法及装置
CN106157986B (zh) * 2016-03-29 2020-05-26 联想(北京)有限公司 一种信息处理方法及装置、电子设备
US10210380B2 (en) * 2016-08-09 2019-02-19 Daon Holdings Limited Methods and systems for enhancing user liveness detection
US11115408B2 (en) 2016-08-09 2021-09-07 Daon Holdings Limited Methods and systems for determining user liveness and verifying user identities
US10217009B2 (en) 2016-08-09 2019-02-26 Daon Holdings Limited Methods and systems for enhancing user liveness detection
US10628661B2 (en) 2016-08-09 2020-04-21 Daon Holdings Limited Methods and systems for determining user liveness and verifying user identities
JP6808480B2 (ja) 2016-12-27 2021-01-06 キヤノン株式会社 撮像制御装置及びその制御方法
JP6833507B2 (ja) 2016-12-27 2021-02-24 キヤノン株式会社 撮像制御装置及びその制御方法
JP6765956B2 (ja) 2016-12-27 2020-10-07 キヤノン株式会社 撮像制御装置及びその制御方法
JP6833505B2 (ja) * 2016-12-27 2021-02-24 キヤノン株式会社 撮像制御装置及びその制御方法
CN107767335A (zh) * 2017-11-14 2018-03-06 上海易络客网络技术有限公司 一种基于人脸识别特征点定位的图像融合方法及系统
KR102004991B1 (ko) * 2017-12-22 2019-10-01 삼성전자주식회사 이미지 처리 방법 및 그에 따른 디스플레이 장치
JP6856583B2 (ja) * 2018-07-25 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
CN114816294A (zh) * 2020-09-02 2022-07-29 华为技术有限公司 一种显示方法及设备
US11228702B1 (en) * 2021-04-23 2022-01-18 Gopro, Inc. Stabilization of face in video

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046591A (ja) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc 画像評価装置
JP2004242010A (ja) * 2003-02-05 2004-08-26 Minolta Co Ltd 撮像装置
JP2004310702A (ja) * 2003-04-01 2004-11-04 Honda Motor Co Ltd 顔識別システム
JP2004318269A (ja) * 2003-04-11 2004-11-11 Sony Corp 画像表示装置、画像表示方法、及び画像表示システム
JP2005033714A (ja) * 2003-07-11 2005-02-03 Sony Corp 情報信号再生装置および情報信号再生方法並びに情報信号処理装置及び情報信号処理方法
JP2005318515A (ja) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1033718B1 (en) * 1999-03-02 2006-01-11 Hitachi Denshi Kabushiki Kaisha Motion picture information displaying method and apparatus
EP2296167B1 (en) * 1999-09-20 2012-11-07 Hitachi, Ltd. Ion source, mass spectrometer, detector and monitoring system
JP4310916B2 (ja) * 2000-11-08 2009-08-12 コニカミノルタホールディングス株式会社 映像表示装置
JP4130641B2 (ja) 2004-03-31 2008-08-06 富士フイルム株式会社 ディジタル・スチル・カメラおよびその制御方法
JP4589646B2 (ja) 2004-03-31 2010-12-01 富士フイルム株式会社 ディジタル・スチル・カメラおよびその制御方法
JP3927571B2 (ja) * 2004-10-25 2007-06-13 株式会社日立国際電気 画像表示プログラム
JP4324170B2 (ja) * 2005-03-17 2009-09-02 キヤノン株式会社 撮像装置およびディスプレイの制御方法
JP4350725B2 (ja) * 2005-08-05 2009-10-21 キヤノン株式会社 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム
JP4507281B2 (ja) * 2006-03-30 2010-07-21 富士フイルム株式会社 画像表示装置、撮像装置および画像表示方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046591A (ja) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc 画像評価装置
JP2004242010A (ja) * 2003-02-05 2004-08-26 Minolta Co Ltd 撮像装置
JP2004310702A (ja) * 2003-04-01 2004-11-04 Honda Motor Co Ltd 顔識別システム
JP2004318269A (ja) * 2003-04-11 2004-11-11 Sony Corp 画像表示装置、画像表示方法、及び画像表示システム
JP2005033714A (ja) * 2003-07-11 2005-02-03 Sony Corp 情報信号再生装置および情報信号再生方法並びに情報信号処理装置及び情報信号処理方法
JP2005318515A (ja) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008283379A (ja) * 2007-05-09 2008-11-20 Casio Comput Co Ltd 撮像装置及びプログラム
JP4506779B2 (ja) * 2007-05-09 2010-07-21 カシオ計算機株式会社 撮像装置及びプログラム
JP2011504316A (ja) * 2007-11-13 2011-02-03 オラワークス・インコーポレイテッド セルフ撮影の際に顔の構図を決定できるようにサポートする方法及びシステム
JP2010016798A (ja) * 2008-06-05 2010-01-21 Canon Inc 撮像装置、その制御方法及びプログラム
JP2013211892A (ja) * 2008-06-05 2013-10-10 Canon Inc 撮像装置及びその制御方法
JP2010010816A (ja) * 2008-06-24 2010-01-14 Camelot:Kk 合成画像撮影システム及び合成画像撮影方法
JP2010041621A (ja) * 2008-08-07 2010-02-18 Canon Inc 撮像装置及びその制御方法、プログラム
WO2010026696A1 (ja) * 2008-09-08 2010-03-11 パナソニック株式会社 画像処理装置、画像処理方法、画像処理プログラム、撮像装置
JP2010183559A (ja) * 2009-01-07 2010-08-19 Canon Inc 撮像装置及びその制御方法及びプログラム
US8599245B2 (en) 2009-09-30 2013-12-03 Fujifilm Corporation Image processing apparatus, camera, and image processing method
US9106834B2 (en) 2011-02-07 2015-08-11 Canon Kabushiki Kaisha Image display controller capable of providing excellent visibility of display area frames, image pickup apparatus, method of controlling the image display controller, and storage medium
US9398222B2 (en) 2012-09-20 2016-07-19 Canon Kabushiki Kaisha Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus
JP2018519727A (ja) * 2015-11-06 2018-07-19 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ビデオ画像の上に情報を表示するための方法及びデバイス
US10425679B2 (en) 2015-11-06 2019-09-24 Tencent Technology (Shenzhen) Company Limited Method and device for displaying information on video image
JP2018046497A (ja) * 2016-09-16 2018-03-22 富士フイルム株式会社 画像表示制御システム,画像表示制御方法および画像表示制御プログラム
US10402683B2 (en) 2016-09-16 2019-09-03 Fujifilm Corporation Image display control system, image display control method, and image display control program for calculating evaluation values of detected objects
JP2018063675A (ja) * 2016-10-14 2018-04-19 キヤノン株式会社 画像処理装置および制御方法
US11048929B2 (en) 2016-10-14 2021-06-29 Canon Kabushiki Kaisha Human body detection apparatus, control method for human body detection apparatus

Also Published As

Publication number Publication date
US10841499B2 (en) 2020-11-17
US11678049B2 (en) 2023-06-13
US20220060636A1 (en) 2022-02-24
US10554894B2 (en) 2020-02-04
US20210029302A1 (en) 2021-01-28
US20170310898A1 (en) 2017-10-26
JP4507281B2 (ja) 2010-07-21
US20230276121A1 (en) 2023-08-31
US20140184869A1 (en) 2014-07-03
US8704856B2 (en) 2014-04-22
US9736379B2 (en) 2017-08-15
US20200112682A1 (en) 2020-04-09
US11196933B2 (en) 2021-12-07
US20070242861A1 (en) 2007-10-18

Similar Documents

Publication Publication Date Title
JP4507281B2 (ja) 画像表示装置、撮像装置および画像表示方法
US8385607B2 (en) Imaging apparatus, image processing apparatus, image processing method and computer program
JP4196714B2 (ja) デジタルカメラ
TWI444041B (zh) 影像處理裝置、影像處理方法及記錄媒體
CN101753814B (zh) 摄像装置、照明处理装置以及照明处理方法
EP1471455A2 (en) Digital camera
JP4663699B2 (ja) 画像表示装置、及び画像表示方法
US8786749B2 (en) Digital photographing apparatus for displaying an icon corresponding to a subject feature and method of controlling the same
JP2004317699A (ja) デジタルカメラ
JP2008262447A (ja) 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体
JP2013153376A (ja) 画像処理装置、画像処理方法および記録媒体
JP2019106045A (ja) 画像処理装置、方法及びプログラム
JP2005086516A (ja) 撮像装置、印刷装置、画像処理装置およびプログラム
JP2007288382A (ja) 画像表示制御装置ならびにそれらの制御方法およびそれらの制御プログラム
JP5966778B2 (ja) 撮像装置、撮像方法及びプログラム
CN103997593A (zh) 图像生成装置及图像生成方法
JP2004320285A (ja) デジタルカメラ
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP2007013783A (ja) 電子カメラ
KR20100069501A (ko) 영상 처리 방법 및 장치, 및 이를 이용한 디지털 촬영 장치
WO2021210340A1 (ja) 画像処理装置、画像処理方法及び撮像装置
JP2010226485A (ja) 画像加工装置およびデジタルカメラ
JP2014174855A (ja) 画像処理装置、画像処理方法及びプログラム
JP2009055168A (ja) 撮像装置及び画像処理方法
JP2010176217A (ja) 画像修正装置およびデジタルカメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080812

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090728

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100412

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100425

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4507281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250