JPWO2020080037A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JPWO2020080037A1
JPWO2020080037A1 JP2020521615A JP2020521615A JPWO2020080037A1 JP WO2020080037 A1 JPWO2020080037 A1 JP WO2020080037A1 JP 2020521615 A JP2020521615 A JP 2020521615A JP 2020521615 A JP2020521615 A JP 2020521615A JP WO2020080037 A1 JPWO2020080037 A1 JP WO2020080037A1
Authority
JP
Japan
Prior art keywords
detection
frame
animal
person
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020521615A
Other languages
English (en)
Other versions
JP7113364B2 (ja
Inventor
充義 岡本
充義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020080037A1 publication Critical patent/JPWO2020080037A1/ja
Application granted granted Critical
Publication of JP7113364B2 publication Critical patent/JP7113364B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

撮像装置は、撮像部と、表示部と、第1及び第2の検出部と、制御部とを備える。撮像部は、被写体を撮像して撮像画像を生成する。表示部は、撮像画像を表示する。第1の検出部は、被写体が人の場合、人の少なくとも一部を検出する。第2の検出部は、被写体が動物の場合、動物の少なくとも一部を検出する。制御部は、表示部を制御して、撮像画像上に、人に応じた第1検出枠、及び動物に応じた第2検出枠を表示させる。制御部は、第1検出枠と第2検出枠とが、被写体のうちの主要被写体に応じた第3検出枠ではない場合に共通の表示態様において表示されるように、表示部を制御する。

Description

本開示は、人と動物を検出する機能を有する撮像装置に関する。
特許文献1は、動物の顔画像に注目したAF処理等のペット撮像タスクを実行する電子カメラを開示している。特許文献1の電子カメラは、ペット撮像モードが選択されると、ペット撮像タスクと並列して人顔検出タスクを実行し、人顔検出タスクの完了後にペット顔検出タスクを実行する。人顔検出タスクにおいて人物の顔画像が発見されると、人物の顔画像を囲う顔枠キャラクタが電子カメラのLCDモニタに表示され、その後のペット顔検出タスクは、人物の顔画像に対応する一部の動物顔辞書を参照して実行される。これにより、動物の顔画像の探索に要する時間を短縮して、撮像性能を向上する目的が達成されている。
特開2011−239120号公報
本開示は、人と動物を検出する撮像装置において、ユーザの不快感を生じる可能性を低減することができる撮像装置を提供する。
本開示に係る撮像装置は、撮像部と、表示部と、第1の検出部と、第2の検出部と、制御部とを備える。撮像部は、被写体を撮像して撮像画像を生成する。表示部は、撮像画像を表示する。第1の検出部は、被写体が人の場合、人の少なくとも一部を検出する。第2の検出部は、被写体が動物の場合、動物の少なくとも一部を検出する。制御部は、表示部を制御して、撮像画像上に、人に応じた第1検出枠、及び動物に応じた第2検出枠を表示させる。制御部は、第1検出枠と第2検出枠とが、被写体のうちの主要被写体に応じた第3検出枠ではない場合に共通の表示態様において表示されるように、表示部を制御する。
本開示に係る撮像装置によると、主要被写体以外の人に応じた第1検出枠と動物に応じた第2検出枠とが区別なく表示されることにより、人と動物を検出する撮像装置において、ユーザの不快感を生じる可能性を低減することができる。
本開示の実施の形態1に係るデジタルカメラの構成を示す図 デジタルカメラにおける画像認識部を説明するための図 デジタルカメラの動作の概要を説明するための図 デジタルカメラにおけるモード設定画面の表示例を示す図 デジタルカメラにおけるモード設定の処理を説明するためのフローチャート デジタルカメラによる人検出モードの動作を例示するフローチャート デジタルカメラによる人検出モードの動作を説明するための図 デジタルカメラによる人/動物検出モードの動作を例示するフローチャート デジタルカメラにおける動物体枠と動物顔枠を説明するための図 デジタルカメラにおける人検出枠と動物検出枠の表示例を示す図 人/動物検出モードにおける優先表示を説明するための図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
実施の形態1では、本開示に係る撮像装置の一例として、画像認識技術に基づき人と動物を検出する機能を有するデジタルカメラについて説明する。このような検出機能においては、人を動物と間違う誤検出が生じたときに、ユーザに不快感を与える事態が懸念される。そこで、本実施形態では、上記の検出機能における誤検出が、ユーザの不快感を生じる可能性を低減できるデジタルカメラを提供する。
〔1−1.構成〕
実施の形態1に係るデジタルカメラの構成について、図1を用いて説明する。
図1は、本実施形態に係るデジタルカメラ100の構成を示す図である。本実施形態のデジタルカメラ100は、イメージセンサ115と、画像処理エンジン120と、表示モニタ130と、コントローラ135とを備える。さらに、デジタルカメラ100は、バッファメモリ125と、カードスロット140と、フラッシュメモリ145と、操作部150と、通信モジュール155とを備える。また、デジタルカメラ100は、例えば光学系110及びレンズ駆動部112を備える。
光学系110は、フォーカスレンズ、ズームレンズ、光学式手ぶれ補正レンズ(OIS)、絞り、シャッタ等を含む。フォーカスレンズは、イメージセンサ115上に形成される被写体像のフォーカス状態を変化させるためのレンズである。ズームレンズは、光学系で形成される被写体像の倍率を変化させるためのレンズである。フォーカスレンズ等は、それぞれ1枚又は複数枚のレンズで構成される。
レンズ駆動部112は、光学系110におけるフォーカスレンズ等を駆動する。レンズ駆動部112はモータを含み、コントローラ135の制御に基づいてフォーカスレンズを光学系110の光軸に沿って移動させる。レンズ駆動部112においてフォーカスレンズを駆動する構成は、DCモータ、ステッピングモータ、サーボモータ、または超音波モータなどで実現できる。
イメージセンサ115は、光学系110を介して形成された被写体像を撮像して、撮像データを生成する。撮像データは、イメージセンサ115による撮像画像を示す画像データを構成する。イメージセンサ115は、所定のフレームレート(例えば、30フレーム/秒)で新しいフレームの画像データを生成する。イメージセンサ115における、撮像データの生成タイミングおよび電子シャッタ動作は、コントローラ135によって制御される。イメージセンサ115は、CMOSイメージセンサ、CCDイメージセンサ、またはNMOSイメージセンサなど、種々のイメージセンサを用いることができる。
イメージセンサ115は、静止画像の撮像動作、スルー画像の撮像動作等を実行する。スルー画像は主に動画像であり、ユーザが静止画像の撮像のための構図を決めるために表示モニタ130に表示される。スルー画像及び静止画像は、それぞれ本実施形態における撮像画像の一例である。イメージセンサ115は、本実施形態における撮像部の一例である。
画像処理エンジン120は、イメージセンサ115から出力された撮像データに対して各種の処理を施して画像データを生成したり、画像データに各種の処理を施して、表示モニタ130に表示するための画像を生成したりする。各種処理としては、ホワイトバランス補正、ガンマ補正、YC変換処理、電子ズーム処理、圧縮処理、伸張処理等が挙げられるが、これらに限定されない。画像処理エンジン120は、ハードワイヤードな電子回路で構成してもよいし、プログラムを用いたマイクロコンピュータ、プロセッサなどで構成してもよい。
本実施形態において、画像処理エンジン120は、撮像画像の画像認識によって人と動物の検出機能を実現する画像認識部122を含む。画像認識部122の詳細については後述する。
表示モニタ130は、種々の情報を表示する表示部の一例である。例えば、表示モニタ130は、イメージセンサ115で撮像され、画像処理エンジン120で画像処理された画像データが示す画像(スルー画像)を表示する。また、表示モニタ130は、ユーザがデジタルカメラ100に対して種々の設定を行うためのメニュー画面等を表示する。表示モニタ130は、例えば、液晶ディスプレイデバイスまたは有機ELデバイスで構成できる。又、表示部は、表示モニタ130に限らず、例えばEVF(電子ビューファインダ)であってもよい。
操作部150は、デジタルカメラ100の外装に設けられた操作釦や操作レバー等のハードキーの総称であり、使用者による操作を受け付ける。操作部150は、例えば、レリーズ釦、モードダイヤル、タッチパネルを含む。操作部150はユーザによる操作を受け付けると、ユーザ操作に対応した操作信号をコントローラ135に送信する。
コントローラ135は、デジタルカメラ100全体の動作を統括制御する。コントローラ135はCPU等を含み、CPUがプログラム(ソフトウェア)を実行することで所定の機能を実現する。コントローラ135は、CPUに代えて、所定の機能を実現するように設計された専用の電子回路で構成されるプロセッサを含んでもよい。すなわち、コントローラ135は、CPU、MPU、GPU、DSU、FPGA、ASIC等の種々のプロセッサで実現できる。コントローラ135は1つまたは複数のプロセッサで構成してもよい。また、コントローラ135は、画像処理エンジン120などと共に1つの半導体チップで構成してもよい。
バッファメモリ125は、画像処理エンジン120やコントローラ135のワークメモリとして機能する記録媒体である。バッファメモリ125は、DRAM(Dynamic Random Access Memory)などにより実現される。フラッシュメモリ145は不揮発性の記録媒体である。また、図示していないが、コントローラ135は各種の内部メモリを有してもよく、例えばROMを内蔵してもよい。ROMには、コントローラ135が実行する様々なプログラムが記憶されている。また、コントローラ135は、CPUの作業領域として機能するRAMを内蔵してもよい。
カードスロット140は、着脱可能なメモリカード142が挿入される手段である。カードスロット140は、メモリカード142を電気的及び機械的に接続可能である。メモリカード142は、内部にフラッシュメモリ等の記録素子を備えた外部メモリである。メモリカード142は、画像処理エンジン120で生成される画像データなどのデータを格納できる。
通信モジュール155は、通信規格IEEE802.11またはWi−Fi規格等に準拠した通信を行う通信モジュール(回路)である。デジタルカメラ100は、通信モジュール155を介して、他の機器と通信することができる。デジタルカメラ100は、通信モジュール155を介して、他の機器と直接通信を行ってもよいし、アクセスポイント経由で通信を行ってもよい。通信モジュール155は、インターネット等の通信デットワークに接続可能であってもよい。
〔1−1−1.画像認識部について〕
本実施形態における画像認識部122の詳細を、図2を用いて説明する。
図2は、デジタルカメラ100における画像認識部122を説明するための図である。画像認識部122は、例えば畳み込みニューラルネットワーク等のニューラルネットワークによる学習済みモデルを採用する。画像認識部122は、イメージセンサ115の撮像画像Imを示す情報を学習済みモデルに入力して、当該モデルによる画像認識処理を実行する。画像認識部122は、画像認識処理による人と動物の検出結果を示す人検出情報D1を出力する第1検出器122aおよび動物検出情報D2を出力する第2検出器122bとして機能する。画像認識部122は、本実施形態における第1及び第2の検出部の一例である。
画像認識部122の画像認識処理は、例えば学習済みモデルに入力された画像Imにおいて、予め設定された複数のカテゴリの何れかに分類される被写体が映っている領域を示す位置情報を、各カテゴリに対応付けて出力することにより、各検出情報D1,D2を生成する。複数のカテゴリは、例えば、人の体、顔および瞳といった人の各部、並びに動物の体、顔および瞳といった動物の各部を含む。人検出情報は人の各部の検出結果に対応する位置情報を含み、動物検出情報は動物の各部の検出結果に対応する位置情報を含む。位置情報は、例えば処理対象の画像Im上の水平位置及び垂直位置で規定され、例えば検出された各部を矩形状に囲む領域を示す(図3参照)。
画像認識部122は、各カテゴリについて、予め設定された最大の個数までの被写体を同時に検出することができる。また、上記の動物のカテゴリは、さらに、動物の種類に応じて分類されてもよい。例えば、犬、猫および鳥などのカテゴリが別々に設定されてもよいし、犬と猫を1つにまとめたカテゴリが設定されてもよい。
以上のような画像認識部122の学習済みモデルは、例えば、各カテゴリの被写体が映った画像を正解とする正解ラベルと画像中の被写体の位置情報等を関連付けた画像データを教師データとして用いた教師あり学習によって得ることができる。学習済みモデルは、各カテゴリの検出結果に関する信頼度或いは尤度を生成してもよい。第1検出器122aと第2検出器122bとは、一部又は全てが共通の学習済みモデルを適用してもよいし、別々の学習済みモデルを適用してもよい。
画像認識部122の学習済みモデルはニューラルネットワークに限らず、種々の画像認識に関する機械学習モデルであってもよい。また、画像認識部122は機械学習に限らず、種々の画像認識アルゴリズムを採用してもよい。また、画像認識部122は、例えば人の顔および瞳などの一部のカテゴリに対する検出がルールベースの画像認識処理によって行われるように構成されてもよい。画像認識部122は、例えばDSP等で構成されてもよい。また、画像認識部122は、画像処理エンジン120とは別に構成されてもよく、コントローラ135と一体的に構成されてもよい。
〔1−2.動作〕
以上のように構成されるデジタルカメラ100の動作について、以下説明する。
デジタルカメラ100は、光学系110を介して形成された被写体像をイメージセンサ115で撮像して撮像データを生成する。画像処理エンジン120は、イメージセンサ115により生成された撮像データに対して各種処理を施して画像データを生成する。コントローラ135は、例えば静止画像の撮像動作において、画像処理エンジン120にて生成された画像データをカードスロット140に装着されたメモリカード142に記録する。
また、デジタルカメラ100は、スルー画像の撮像動作において、表示モニタ130にスルー画像を表示させる。ユーザは、表示モニタ130のスルー画像により、静止画像の撮像のための構図を確認することができる。コントローラ135は、例えばユーザによるレリーズボタンの操作に応じて、光学系110のフォーカスレンズを駆動するレンズ駆動部112を制御する合焦動作を行う。
以上のような撮像動作時に、本実施形態のデジタルカメラ100は、例えば合焦の対象とする主要被写体を特定するために、スルー画像等の撮像画像Imに対する画像認識を行って人および動物を検出する。図3(A),(B)を用いて、本実施形態に係るデジタルカメラ100の動作の概要を説明する。
図3(A)は、デジタルカメラ100の被写体として人21〜23と動物20が検出された状態の一例を示す。図3(B)は、図3(A)の例における表示モニタ130の表示例を示す。
本実施形態のデジタルカメラ100は、イメージセンサ115の撮像画像Imに対する画像認識部122の画像認識処理により、人検出枠30および動物検出枠40を認識し、表示モニタ130のスルー画像上に各検出枠30,40を表示させる。人検出枠30は、画像認識部122の検出結果における人検出情報D1において検出された人の各部に応じた画像上の領域を示す。動物検出枠40は、動物検出情報D2において検出された動物の各部に応じた画像上の領域を示す。本実施形態において、人検出枠30は第1検出枠の一例であり、動物検出枠40は第2検出枠の一例である。
図3(A)は、人21〜23と動物20が映った撮像画像Imにおいて、人検出枠30,31及び動物検出枠40,41が認識された状態を例示している。各検出枠30,31,40,41は、例えば矩形状に、対応する被写体21,23,20,22の領域を囲んでいる。人検出枠30,31及び動物検出枠40,41は、特に矩形状に限らず、種々の多角形状、円状或いは楕円状等の種々の形状に設定されてもよい。
各検出枠30〜41が表示されることにより、ユーザはデジタルカメラ100に認識された被写体20〜23を把握したり、認識された被写体20〜23の中からオートフォーカス(AF)の対象とする主要被写体を、各々の検出枠30〜41を用いて指定したりすることができる。例えば、図3(A),(B)の例の主要被写体は、図中右側の人23であり、対応する人検出枠31がAF対象の検出枠50として表示されている。AF対象の検出枠50は、本実施形態における第3検出枠の一例である。
ここで、図3(A)では、主要被写体とは別の人22が、誤って動物として検出された例を示している。このような誤検出により、動物検出枠41が人22を囲んでいる。このような場合に、人検出枠30,31と動物検出枠40,41とがそのまま区別して表示されると、人22を動物と間違えた誤検出をユーザに視認させてしまい、ユーザの不快感を招くことが懸念される。
そこで、本実施形態のデジタルカメラ100は、表示モニタ130に各検出枠30〜41を表示する際に、人の検出結果と動物の検出結果とを区別しない表示態様を用いる。例えば、図3(B)の表示例では、AF対象の検出枠50以外の人検出枠30と動物検出枠40,41とが、同じ色、線種、線幅、及び枠形状となっている。このため、人22の誤検出による動物検出枠41は、人検出枠30と同じように表示される。このように、人22を動物と間違えた誤検出がユーザに視認されないようにして、ユーザの不快感を回避することができる。
〔1−2−1.モード設定について〕
本実施形態のデジタルカメラ100は、以上のような人の検出及び動物の検出を行う人/動物検出モードと、動物の検出を行わずに人の検出を行う人検出モードとに設定可能である一方、人の検出を行なわずに動物の検出を行うような動作モード(以下「動物検出モード」という)には、設定不可能に構成される。本実施形態のデジタルカメラ100におけるモード設定について、図4,5を用いて説明する。
図4は、本実施形態のデジタルカメラ100におけるモード設定画面の表示例を示す。図4(A)は、人検出モードが設定された場合の表示例であり、図4(B)は、人/動物検出モードが設定された場合の表示例である。図5は、デジタルカメラ100におけるモード設定の処理を説明するためのフローチャートである。
本実施形態のデジタルカメラ100では、例えば合焦動作のために被写体を自動認識する動作モードとして、人検出モードおよび人/動物検出モードが設定可能である。図4(A),(B)の例において、表示モニタ130は、オートフォーカスのモード設定画面において、動物認識キー60を表示している。動物認識キー60は、デジタルカメラ100の画像認識において動物の検出を実行するか否かを決定するためのキーである。
本実施形態のデジタルカメラ100において、コントローラ135は、操作部150を介して動物認識キー60の操作を受け付けて、図5に示す処理を実行する。動物認識キー60がオフに操作されると(S1でNO)、コントローラ135は、デジタルカメラ100を人検出モードに設定する(S2)。図4(A)では、人検出モードに設定された状態を示す人検出アイコン61が表示されている。本実施形態の人検出モードにおいて、デジタルカメラ100は、人の体、顔、及び瞳の検出を実行する。人検出モードの動作については後述する。
一方、動物認識キー60がオンに操作されると(S1でYES)、コントローラ135は、デジタルカメラ100を人/動物検出モードに設定する(S3)。図4(B)では、人/動物検出モードに設定された状態を示す人/動物検出アイコン62が表示されている。本実施形態の人/動物検出モードにおいて、デジタルカメラ100は、人検出モードにおける人の各部の検出に加えて、動物の各部の検出を実行する。人/動物検出モードの動作については後述する。
以上のように、本実施形態のデジタルカメラ100は、人検出モード(第1検出モードの一例)と人/動物検出モード(第2検出モードの一例)とを有する一方、人の検出を伴わない動物検出モード(第3検出モードの一例)を有していない。
例えば動物検出モードを有するカメラにおいては、動物検出モードに設定した状態で人が検出されることが、人を動物と間違う誤検出以外にあり得ないこととなる。この場合、上記の誤検出が生じたときに、誤検出をユーザに気付かせないようにすることが困難である。これに対して、本実施形態のデジタルカメラ100は、動物検出モードを有しておらず、動物の検出が行われる動作モードは人の検出を伴う人/動物検出モードとなるため、人を動物と間違う誤検出が生じたとしても、誤検出をユーザに気付かせないようにすることが可能となる。
なお、本実施形態のデジタルカメラ100は、被写体の自動認識を行わない動作モード、即ち人の検出も動物の検出も行わない動作モードを有してもよい。例えば、デジタルカメラ100は、予め設定された撮像画像Im上の位置についてオートフォーカスを行う各種動作モードを有してもよい。
〔1−2−2.人検出モードの動作〕
本実施形態の人検出モードの動作について、図6〜7を用いて説明する。
図6は、デジタルカメラ100による人検出モードの動作を例示するフローチャートである。図6のフローチャートは、デジタルカメラ100が人検出モードに設定された場合に実行される(図4(A)参照)。本フローチャートにおける各処理は、デジタルカメラ100のコントローラ135によって実行される。
まず、コントローラ135は、画像認識部122から人検出情報D1を取得する(S10)。画像認識部122は、例えば撮像画像Imのフレーム周期などの所定の周期で画像認識処理を実行し、人検出情報D1を生成する。これと同時に、画像認識部122は、動物検出情報D2を生成してもよい。
コントローラ135は、取得した人検出情報D1に基づいて、表示モニタ130に表示する候補となる表示候補の検出枠があるか否かを判断する(S11)。本実施形態において、人検出情報D1は、人の体、顔および瞳が検出された領域を示す位置情報を含んでいる。表示候補の検出枠の一例を図7(A)に示す。
図7(A)の例では、撮像画像Im上で人の体の領域を囲む人体枠301、及び人の顔の領域を囲む人顔枠302が、表示候補として認識されている。各枠301,302の位置及びサイズは、それぞれ取得された人検出情報D1に応じて設定される。コントローラ135は、取得した人検出情報D1に基づき人体枠301及び人顔枠302を認識し、表示候補としてバッファメモリ125等に保持する。人体枠301及び人顔枠302は、それぞれ人検出枠30を構成する第1枠及び第2枠の一例である。
なお、画像認識部122からの人検出情報D1において人検出枠30が認識されなかったとき、コントローラ135は、表示候補の検出枠がないと判断して(S11でNO)、ステップS10に戻る。
表示候補の検出枠がある場合(S11でYES)、コントローラ135は、認識した人顔枠302が囲む領域と人体枠301が囲む領域とが重なっているか否かを判断する(S12)。例えば図7(A)の場合、人顔枠302が人体枠301内部の領域に包含されるように重なっていることから、コントローラ135は、ステップS12において「YES」に進む。
人顔枠302の領域と人体枠301の領域とが重なっている場合(S12でYES)、コントローラ135は、重なった人体枠301を、表示候補から削除する(S13)。この場合、人体枠301は表示されずに、人顔枠302が優先して表示される(図7(B)参照)。一方、人顔枠302の領域と人体枠301の領域とが重なっていない場合(S12でNO)、コントローラ135は、特にステップS13の処理を行わずにステップS14に進む。
次に、コントローラ135は、表示候補の検出枠が1つか否かを判断する(S14)。表示候補の検出枠が1つの場合(S14でYES)、コントローラ135は、当該検出枠を、AF対象の表示態様において表示するように、表示モニタ130を制御する(S15)。この場合の表示態様は、例えば図3(B)におけるAF対象の検出枠50の表示態様と同様である。
一方、表示候補として複数の検出枠がある場合(S14でNO)、コントローラ135は、複数の検出枠の中からAF対象として1つの検出枠を選択する(S16)。ステップS16の選択は、ユーザの操作に従ってもよいし、ランダムであってもよいし、所定の優先順位を用いてもよい。優先順位は、人体枠301よりも人顔枠302を優先するように設定されてもよい。
次に、コントローラ135は、選択した検出枠をAF対象の表示態様において表示させると共に、他の検出枠をAF対象とは別の表示態様において表示させる(S17)。AF対象ではない検出枠が同時に表示される個数には適宜、上限が設定されてもよい。
また、コントローラ135は、例えばステップS10で取得した人検出情報D1に基づいて、AF対象の検出枠50内部の領域において、瞳が検出されたか否かを判断する(S18)。コントローラ135は、瞳が検出されたと判断すると(S18でYES)、検出された瞳の位置に応じて、瞳の検出結果を示す情報51を追加して表示するように表示モニタ130を制御する(S19)。図7(B)に、ステップS19の表示例を例示する。
また、コントローラ135は、瞳が検出されていないと判断すると(S18でNO)、特にステップS19の追加表示をせずに、ステップS10に戻る。コントローラ135は、以上のステップS10〜S19の処理を周期的に繰り返し実行する。
以上の人検出モードの動作によると、画像認識部122の人検出情報D1に基づいて人を検出する一方、動物の検出は特に行われない。人検出枠30が表示モニタ130に表示されることにより、ユーザは、デジタルカメラ100に認識された人を把握することができる。また、デジタルカメラ100は、例えばAF対象の検出枠50中のコントラスト評価値等を用いることにより、主要被写体に合焦する合焦動作を行うことができる。
なお、人検出モードにおいて動物を囲む検出枠が表示された場合、デジタルカメラ100が動物を人と間違う誤検出を生じたと考えられるが、このような誤検出がユーザに視認されることは、許容されてもよい。この場合であっても、人検出モードでは人として検出できるか否かしか判断対象とならないことから、人が検出できなかった場合の理由が動物と間違った誤検出であったとしても、当該理由がユーザに認識される事態は回避できる。このように、人を動物と間違う誤検出によってユーザの不快感を生じる可能性を低減できる。
〔1−2−3.人/動物検出モードの動作〕
本実施形態の人/動物検出モードの動作について、図8〜11を用いて説明する。
図8は、デジタルカメラ100による人/動物検出モードの動作を例示するフローチャートである。図8のフローチャートは、デジタルカメラ100が人/動物検出モードに設定された場合に実行される(図4(B)参照)。本フローチャートにおける各処理は、デジタルカメラ100のコントローラ135によって実行される。
図8のフローチャートにおいて、コントローラ135は、図6のステップS10と同様の人検出情報D1に加えて、画像認識部122から、動物検出情報D2を取得する(S20)。コントローラ135は、取得した人検出情報D1及び動物検出情報D2に基づいて、人検出枠30と動物検出枠40との表示が区別なく為されるように、以降のステップS21〜S29の各処理をそれぞれステップS11〜S19の各処理と同様に行う。
例えば、人体枠301及び人顔枠302の場合(図7(A)参照)と同様に、コントローラ135は、図9(A)に示すように、動物検出情報D2に応じて撮像画像Im上で検出された動物の体の領域を囲む動物体枠401、及び動物の顔の領域を囲む動物顔枠402を表示候補として認識する(S21)。動物体枠401及び動物顔枠402は、それぞれ動物検出枠40を構成する第3枠及び第4枠の一例である。
また、表示候補の検出枠がある場合(S21でYES)、コントローラ135は、例えば、人顔枠302と人体枠301の重なりの判断と同様に(図6のS12参照)、動物顔枠402の領域と動物体枠401の領域とが重なるか否かを判断する(S22)。動物顔枠402の領域と動物体枠401の領域とが重なる場合(S22でYES)、コントローラ135は、動物顔枠402が重なった動物体枠401を表示候補から削除する(S23)。これにより、動物体枠401よりも優先して動物顔枠402が表示される(図9(B)参照)。
ステップS22において、コントローラ135は、上記と同様に、動物顔枠402と人体枠301の重なりを判断したり、人顔枠302と動物体枠401の重なりを判断したりしてもよい。人顔枠302又は動物顔枠402の領域と、人体枠301又は動物体枠401の領域とが重なる場合に(S22でYES)、コントローラ135が、重なった人体枠301又は動物体枠401を削除することにより(S23)、人顔枠302及び動物顔枠402の表示を優先できる。
表示候補の検出枠が1つの動物検出枠40である場合(S24でYES)についても同様に、コントローラ135は、AF対象が人検出枠30の場合と同じ表示態様においてAF対象の検出枠50を表示させる(S25)。一方、表示候補として複数の検出枠がある場合(S24でNO)、コントローラ135は、複数の検出枠の中からAF対象として1つの検出枠を選択する(S26)。
次にコントローラ135は、例えば表示候補からAF対象の検出枠を選択すると(S26)、選択した検出枠以外の人検出枠30と動物検出枠40とを区別しない表示態様で、各検出枠30,40を表示させる(S27)。各種の人検出枠30と動物検出枠40を含む場合の表示例を図10に示す。
図10に例示するように、AF対象でない動物体枠401と人体枠301とは同じ表示態様で表示される。また、AF対象でない動物顔枠402と人顔枠302とは同じ表示態様で表示される。各顔枠302,402は、例えば図10に示すように、各体枠301,401とは、枠形状が異なるなど別の表示態様で表示されてもよい。また、AF対象の検出枠50と他の検出枠301〜402との表示態様の違いは、例えば色であってもよい。例えば、AF対象の検出枠50は有彩色(例えば黄色)である一方、他の検出枠301〜402は無彩色(例えば白色)であってもよい。
以上の処理によると、人/動物検出モードにおいて、被写体における人及び動物が検出される際に、人検出枠30と動物検出枠40とが区別されずに表示される(S27)。これにより、人と動物の誤検出に起因してユーザの不快感を招く事態を回避し易くすることができる。
例えば、図10の例において、AF対象でない人顔枠302と動物顔枠402とは、同じ表示態様で表示されている。このため、仮に人の顔が動物の顔と誤検出されたとしても、誤検出の有無によって表示態様は変動せず、誤検出をユーザに視認させないようにすることができる。
また、以上のステップS22,S23によると、例えば人顔枠302の領域と動物体枠401の領域とが重なる場合(S22でYES)、コントローラ135は、人顔枠302が重なった動物体枠402を表示候補から削除する(S23)。このような一例を図11(A),(B)に示す。
図11(A)の例では、被写体における2人の人21,22のうち、1人目の人21の顔および体と、2人目の人22の顔とは正常に検出されているが、2人目の人22の体は動物と誤検出されている。このとき、コントローラ135は、1人目の人顔枠302が重なった人体枠301を表示させないと共に、2人目の人顔枠303が重なった動物体枠401を表示させず、図11(B)に示すように各人顔枠302,303を優先表示させる(S22,S23)。このように、部分的に動物と誤検出された人22についての優先表示が、正常に検出された人21の優先表示と同様に行われ、人顔枠302,303の優先表示についてのデジタルカメラ100の挙動からユーザが誤検出に気付くような事態を回避し易い。
また、例えばユーザの操作等によってAF対象の主要被写体が、動物20から人22に変更された場合にも、変更前後のAF対象の検出枠50の表示態様は同じになる(S27)。このとき、仮に人22が動物と誤検出されたとしても、AF対象についても表示態様が変動せず、ユーザが誤検出に気付く不快感を回避し易い。
〔1−3.効果等〕
以上のように、本実施形態において、撮像装置の一例であるデジタルカメラ100は、イメージセンサ115(撮像部)と、表示モニタ130(表示部)と、画像認識部122(第1及び第2の検出部)と、コントローラ135(制御部)とを備える。イメージセンサ115は、被写体を撮像して撮像画像Imを生成する。表示モニタ130は、撮像画像Imを表示する。画像認識部122は第1検出器122aとして、被写体が人の場合、人の少なくとも一部を検出する。画像認識部122は第2検出器122bとして、被写体が動物の場合、動物の少なくとも一部を検出する。コントローラ135は、表示モニタ130を制御して、撮像画像Im上に、人に応じた人検出枠30(第1検出枠)、及び動物に応じた動物検出枠40(第2検出枠)を表示させる。コントローラ135は、人検出枠30と動物検出枠40とが、被写体のうちの主要被写体に応じたAF対象の検出枠50(第3検出枠)ではない場合に共通の表示態様において表示されるように、表示モニタ130を制御する。
以上のデジタルカメラ100によると、AF対象の検出枠50以外の人検出枠30と動物検出枠40とが区別なく表示される(S27)。これにより、人と動物を検出するデジタルカメラ100において、人を動物と間違う誤検出が生じた場合に、ユーザの不快感を生じる可能性を低減することができる。
本実施形態において、AF対象の検出枠50は、主要被写体が人の場合と動物の場合との間で共通の表示態様において表示される(S25,S27)。これにより、主要被写体について人を動物と間違う誤検出が生じた場合においても、対応する検出枠50の表示態様は変わらず、ユーザの不快感を生じる可能性を低減できる。
また、本実施形態において、人検出枠30は、撮像画像Im上で人の体を囲む領域を示す人体枠301(第1枠)と、人の顔を囲む領域を示す人顔枠302(第2枠)とを含む。コントローラ135は、人体枠301の領域と人顔枠302の領域とが重なる場合(S12でYES)、人体枠301を表示せずに人顔枠302を表示するように、表示モニタ130を制御する(S13)。これにより、人体枠301よりも人顔枠302を優先して表示することができる。
また、本実施形態において、動物検出枠40は、撮像画像Im上で動物の体を囲む領域を示す動物体枠401(第3枠)を含む。コントローラ135は、動物体枠401の領域と人顔枠302の領域とが重なる場合(S22でYES)、動物体枠401を表示せずに人顔枠302を表示するように、表示モニタ130を制御する(S23)。これにより、人の体が動物の体と誤検出された場合においても、人顔枠302の優先表示を行って、ユーザが誤検出に気付く可能性を低減できる。
また、本実施形態において、動物検出枠40は、撮像画像Im上で動物の顔の領域を囲む領域を示す動物顔枠402(第4枠)をさらに含む。コントローラ135は、人体枠301と動物体枠401とを区別せず、且つ人顔枠302と動物顔枠402とを区別せずに表示モニタ130に表示させる(S27,S25)。これにより、人と動物間で体についても顔についても同様に各検出枠301〜402が表示され、誤検出をユーザに気付かせにくくすることができる。
本実施形態の画像認識部122の第1検出器122aは、人の体、顔および瞳のうちの少なくとも1つを検出してもよい。また、本実施形態の画像認識部122の第2検出器122bは、動物の体、顔および瞳のうちの少なくとも1つを検出してもよい。
本実施形態のコントローラ135は、AF対象の検出枠50に基づいて、主要被写体に合焦するように、デジタルカメラ100の合焦動作を制御してもよい。
本実施形態において、上述した表示態様は、各検出枠30,40,50の色、線種、線幅、および枠形状のうちの少なくとも1つを含んでもよい。AF対象の検出枠50以外の人検出枠30と動物検出枠40間で、色、線種、線幅、および枠形状のうちの少なくとも1つが共通であってもよい。
また、本実施形態において、デジタルカメラ100は、デジタルカメラ100の動作モードを設定可能な操作部150をさらに備えてもよい。デジタルカメラ100は、動作モードとして、人の検出を行って動物の検出を行わない人検出モード(第1検出モード)と、人の検出を行って且つ動物の検出を行う人/動物検出モード(第2検出モード)とを有し、人の検出を行わずに動物の検出を行う動物検出モード(第3検出モード)を有さない。これにより、動物しか検出されない筈の動物検出モードには設定不可能にすることで、人を動物と間違う誤検出に起因してユーザの不快感を生じる可能性を低減することができる。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
上記の実施の形態1では、図8のフローチャートにおいて動物検出情報D2に基づく動物顔枠402が表示候補となる動作例を説明した。本実施形態において、動物顔枠402は表示候補とならなくてもよい。例えば、動物検出情報D2に基づく表示候補の動物検出枠40は動物体枠401のみである一方、人検出情報D1に基づく表示候補の人検出枠30は人体枠301及び人顔枠302であってもよい。この場合においても、各検出枠30,40が表示される際には人検出枠30と動物検出枠40とが区別されずに表示されるため、実施の形態1と同様に、ユーザの不快感を生じる可能性を低減することができる。
上記の場合において、動物顔枠402は、表示候補とは別にデジタルカメラ100の各種内部動作に使用されてもよい。例えば、コントローラ135は、動物体枠401をAF対象の検出枠50として表示させる際に当該動物体枠401に重なる動物顔枠402がある場合に、動物顔枠402に基づき合焦動作を行ってもよい。
また、上記の各実施形態では、画像認識部122が人と動物とについてそれぞれ体、顔および瞳を検出した。本実施形態において、人の検出対象の部位と、動物の検出対象の部位とは異なってもよい。例えば、画像認識部122における動物の顔の検出が省略されてもよいし、動物の瞳の検出が省略されてもよい。
また、上記の各実施形態において、画像認識部122を備えるデジタルカメラ100を説明した。本実施形態において、画像認識部122は、外部サーバに設けられてもよい。この場合、デジタルカメラ100は、通信モジュール155を介して、外部サーバに撮像画像の画像データを送信し、外部サーバから画像認識部122による処理結果の人検出情報D1および動物検出情報D2を受信してもよい。このようなデジタルカメラ100においては、通信モジュール155が第1及び第2の検出部として機能する。
また、上記の各実施形態において、第1及び第2の検出部が一体的に構成される例を説明したが、第1の検出部と第2の検出部とは適宜、別体で構成されてもよい。
また、上記の各実施形態では、主要被写体に応じた第3検出枠の一例として、AF対象の検出枠50を説明した。本実施形態において、第3検出枠はAF対象でなくてもよく、合焦動作以外にもデジタルカメラ100における各種の用途(例えば露出制御)に適用されてもよい。
また、上記の各実施形態では、光学系110及びレンズ駆動部112を備えるデジタルカメラ100を例示した。本実施形態の撮像装置は、光学系110及びレンズ駆動部112を備えなくてもよく、例えば交換レンズ式のカメラであってもよい。
また、上記の各実施形態では、撮像装置の例としてデジタルカメラを説明したが、これに限定されない。本開示の撮像装置は、画像撮影機能を有する電子機器(例えば、ビデオカメラ、スマートフォン、タブレット端末等)であればよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、人と動物を検出する機能を有する撮像装置に適用可能である。

Claims (9)

  1. 被写体を撮像して撮像画像を生成する撮像部と、
    前記撮像画像を表示する表示部と、
    前記被写体が人の場合、前記人の少なくとも一部を検出する第1の検出部と、
    前記被写体が動物の場合、前記動物の少なくとも一部を検出する第2の検出部と、
    前記表示部を制御して、前記撮像画像上に、前記人に応じた第1検出枠、及び前記動物に応じた第2検出枠を表示させる制御部とを備え、
    前記制御部は、前記第1検出枠と前記第2検出枠とが、前記被写体のうちの主要被写体に応じた第3検出枠ではない場合に共通の表示態様において表示されるように、前記表示部を制御する
    撮像装置。
  2. 前記第3検出枠は、前記主要被写体が前記人の場合と前記動物の場合との間で共通の表示態様において表示される
    請求項1に記載の撮像装置。
  3. 前記第1検出枠は、前記撮像画像上で前記人の体を囲む領域を示す第1枠と、前記人の顔を囲む領域を示す第2枠とを含み、
    前記制御部は、前記第1枠の領域と前記第2枠の領域とが重なる場合、前記第1枠を表示せずに前記第2枠を表示するように、前記表示部を制御する
    請求項1又は2に記載の撮像装置。
  4. 前記第2検出枠は、前記撮像画像上で前記動物の体を囲む領域を示す第3枠を含み、
    前記制御部は、前記第3枠の領域と前記第2枠の領域とが重なる場合、前記第3枠を表示せずに前記第2枠を表示するように、前記表示部を制御する
    請求項3に記載の撮像装置。
  5. 前記第2検出枠は、前記撮像画像上で前記動物の顔を囲む領域を示す第4枠をさらに含み、
    前記制御部は、前記第1枠と前記第3枠とを区別せず、且つ前記第2枠と前記第4枠とを区別せずに前記表示部に表示させる
    請求項4に記載の撮像装置。
  6. 前記第1の検出部は、前記人の体、顔および瞳のうちの少なくとも1つを検出し、
    前記第2の検出部は、前記動物の体、顔および瞳のうちの少なくとも1つを検出する
    請求項1〜4のいずれか1項に記載の撮像装置。
  7. 前記制御部は、前記第3検出枠に基づいて、前記主要被写体に合焦するように、前記撮像装置の合焦動作を制御する
    請求項1〜6のいずれか1項に記載の撮像装置。
  8. 前記表示態様は、各検出枠の色、線種、線幅、および枠形状のうちの少なくとも1つを含む
    請求項1〜7のいずれか1項に記載の撮像装置。
  9. 前記撮像装置の動作モードを設定可能な操作部をさらに備え、
    前記動作モードとして、前記人の検出を行って前記動物の検出を行わない第1検出モードと、前記人の検出を行って且つ前記動物の検出を行う第2検出モードとを有し、前記人の検出を行わずに前記動物の検出を行う第3検出モードを有さない
    請求項1〜8のいずれか1項に記載の撮像装置。
JP2020521615A 2018-10-18 2019-09-20 撮像装置 Active JP7113364B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018196724 2018-10-18
JP2018196724 2018-10-18
PCT/JP2019/037017 WO2020080037A1 (ja) 2018-10-18 2019-09-20 撮像装置

Publications (2)

Publication Number Publication Date
JPWO2020080037A1 true JPWO2020080037A1 (ja) 2021-02-15
JP7113364B2 JP7113364B2 (ja) 2022-08-05

Family

ID=70283417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020521615A Active JP7113364B2 (ja) 2018-10-18 2019-09-20 撮像装置

Country Status (3)

Country Link
US (1) US11431893B2 (ja)
JP (1) JP7113364B2 (ja)
WO (1) WO2020080037A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7188067B2 (ja) * 2018-12-27 2022-12-13 オムロン株式会社 人検出装置および人検出方法
JP2022131497A (ja) * 2021-02-26 2022-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2023068454A (ja) 2021-11-02 2023-05-17 キヤノン株式会社 撮像装置、撮像装置の制御方法、画像処理装置、および撮像システム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212557A (ja) * 2008-02-29 2009-09-17 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2011095862A (ja) * 2009-10-27 2011-05-12 Canon Inc 画像処理装置、画像処理方法、及びプログラム
JP2012015889A (ja) * 2010-07-02 2012-01-19 Sony Corp 画像処理装置および画像処理方法
JP2013098746A (ja) * 2011-10-31 2013-05-20 Jvc Kenwood Corp 撮像装置、撮像方法およびプログラム
JP2013162329A (ja) * 2012-02-06 2013-08-19 Sony Corp 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP2013236232A (ja) * 2012-05-08 2013-11-21 Canon Inc 撮像装置、撮像装置の制御方法、およびプログラム
JP2014204249A (ja) * 2013-04-04 2014-10-27 キヤノン株式会社 撮像装置
JP2016144044A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20170026565A1 (en) * 2015-07-20 2017-01-26 Samsung Electronics Co., Ltd. Image capturing apparatus and method of operating the same
JP2018067787A (ja) * 2016-10-19 2018-04-26 キヤノン株式会社 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8194173B2 (en) * 2004-07-16 2012-06-05 Nikon Corporation Auto-focusing electronic camera that focuses on a characterized portion of an object
JP2009010777A (ja) * 2007-06-28 2009-01-15 Sony Corp 撮像装置、撮影制御方法、プログラム
JP2010134910A (ja) * 2008-11-07 2010-06-17 Fujifilm Corp ペット画像検出システムおよびその動作制御方法
JP5485712B2 (ja) * 2010-01-07 2014-05-07 株式会社ザクティ 電子カメラ
US9321399B2 (en) * 2010-03-01 2016-04-26 Honda Motor Co., Ltd. Surrounding area monitoring device for vehicle
JP5485781B2 (ja) 2010-05-10 2014-05-07 株式会社ザクティ 電子カメラ
JP2012037556A (ja) 2010-08-03 2012-02-23 Ricoh Co Ltd 撮像装置
JP2013065110A (ja) 2011-09-15 2013-04-11 Omron Corp 検出装置、該検出装置を備えた表示制御装置および撮影制御装置、物体検出方法、制御プログラム、ならびに、記録媒体
US20130155308A1 (en) * 2011-12-20 2013-06-20 Qualcomm Incorporated Method and apparatus to enhance details in an image
US9712750B2 (en) * 2012-04-09 2017-07-18 Sony Corporation Display control device and associated methodology of identifying a subject in an image

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212557A (ja) * 2008-02-29 2009-09-17 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2011095862A (ja) * 2009-10-27 2011-05-12 Canon Inc 画像処理装置、画像処理方法、及びプログラム
JP2012015889A (ja) * 2010-07-02 2012-01-19 Sony Corp 画像処理装置および画像処理方法
JP2013098746A (ja) * 2011-10-31 2013-05-20 Jvc Kenwood Corp 撮像装置、撮像方法およびプログラム
JP2013162329A (ja) * 2012-02-06 2013-08-19 Sony Corp 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP2013236232A (ja) * 2012-05-08 2013-11-21 Canon Inc 撮像装置、撮像装置の制御方法、およびプログラム
JP2014204249A (ja) * 2013-04-04 2014-10-27 キヤノン株式会社 撮像装置
JP2016144044A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20170026565A1 (en) * 2015-07-20 2017-01-26 Samsung Electronics Co., Ltd. Image capturing apparatus and method of operating the same
JP2018067787A (ja) * 2016-10-19 2018-04-26 キヤノン株式会社 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体

Also Published As

Publication number Publication date
US11431893B2 (en) 2022-08-30
JP7113364B2 (ja) 2022-08-05
US20210321034A1 (en) 2021-10-14
WO2020080037A1 (ja) 2020-04-23

Similar Documents

Publication Publication Date Title
JP7113364B2 (ja) 撮像装置
US9060129B2 (en) Imaging device, control method of imaging device, and computer program
JP5467992B2 (ja) 撮像装置
JP2013070164A (ja) 撮像装置及び撮像方法
US20090086050A1 (en) Image capture device and image capture method
JP2008118387A (ja) 撮像装置
JP5604285B2 (ja) 撮像装置
US11178337B2 (en) Image capturing apparatus, method of controlling the same, and non-transitory computer readable storage medium for calculating a depth width for an object area based on depth information
JP4506779B2 (ja) 撮像装置及びプログラム
JP6817590B1 (ja) 撮像装置
US20220408027A1 (en) Imaging apparatus
JP2021150760A (ja) 撮像装置およびその制御方法
US11394869B2 (en) Imaging device with focusing operation based on subject and predetermined region
US11538172B2 (en) Image tracking apparatus
US11373312B2 (en) Processing system, processing apparatus, terminal apparatus, processing method, and program
JP2020067534A (ja) 撮像装置
JP7117593B1 (ja) 撮像装置
US11917293B2 (en) Imaging device
JP2020079834A (ja) 撮像装置
US11570352B2 (en) Image processing apparatus and control method thereof, imaging apparatus, and storage medium
JP2005341016A (ja) カメラ装置およびプログラム
US20240000307A1 (en) Photography support device, image-capturing device, and control method of image-capturing device
US20240028113A1 (en) Control apparatus, image pickup apparatus, control method, and storage medium
JP7377078B2 (ja) 画像処理装置および画像処理方法、ならびに撮像装置
JP2020088748A (ja) 撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220527

R151 Written notification of patent or utility model registration

Ref document number: 7113364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151