JP2008227569A - 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム - Google Patents
撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム Download PDFInfo
- Publication number
- JP2008227569A JP2008227569A JP2007058412A JP2007058412A JP2008227569A JP 2008227569 A JP2008227569 A JP 2008227569A JP 2007058412 A JP2007058412 A JP 2007058412A JP 2007058412 A JP2007058412 A JP 2007058412A JP 2008227569 A JP2008227569 A JP 2008227569A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- captured image
- subject
- unit
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】ストロボ撮影により被写体を撮影する場合であっても、撮像画像から顔候補領域を確実に抽出することができるようにする。
【解決手段】被写体を撮像し撮像画像データを生成する撮像部37と、ストロボ光源を有するストロボ装置とを有した撮影装置1であって、前記ストロボ装置のストロボ光源を発光させずに前記被写体を前記撮像部37に撮像させ第1撮像画像データを生成させると共に、前記ストロボ装置のストロボ光源を発光させ当該ストロボ光が照射された前記被写体を前記撮像部37に撮像させ第2撮像画像データを生成させるストロボ制御部30と、前記第1撮像画像データと、前記第2撮像画像データとに基づいて、前記第2撮像画像データから前記被写体の顔を検出する顔検出部33とを備える構成とした。
【選択図】図2
【解決手段】被写体を撮像し撮像画像データを生成する撮像部37と、ストロボ光源を有するストロボ装置とを有した撮影装置1であって、前記ストロボ装置のストロボ光源を発光させずに前記被写体を前記撮像部37に撮像させ第1撮像画像データを生成させると共に、前記ストロボ装置のストロボ光源を発光させ当該ストロボ光が照射された前記被写体を前記撮像部37に撮像させ第2撮像画像データを生成させるストロボ制御部30と、前記第1撮像画像データと、前記第2撮像画像データとに基づいて、前記第2撮像画像データから前記被写体の顔を検出する顔検出部33とを備える構成とした。
【選択図】図2
Description
本発明は、被写体を撮像した撮像画像データから該被写体の検出対象物であるオブジェクトの領域を抽出する技術に関する。
従来、画像内のオブジェクトを検出する技術として、例えば人物の顔を自動的に検出する様々な顔検出技術が提案されており、デジタルカメラやプリンタ装置への応用が図られている。
デジタルカメラにおいては、顔検出技術を応用して、撮像画像に含まれる被写体の顔を自動的に検出し、検出された顔の情報に基づいて、例えばオートフォーカス機能制御といった撮像に関する各種制御を行うことが提案されている。また、プリンタ装置においては、印刷対象の画像に含まれている人物の顔を自動的に検出し、その顔が適切な明るさ及び好ましい肌色で表現するための画像補正が行われている。
デジタルカメラにおいては、顔検出技術を応用して、撮像画像に含まれる被写体の顔を自動的に検出し、検出された顔の情報に基づいて、例えばオートフォーカス機能制御といった撮像に関する各種制御を行うことが提案されている。また、プリンタ装置においては、印刷対象の画像に含まれている人物の顔を自動的に検出し、その顔が適切な明るさ及び好ましい肌色で表現するための画像補正が行われている。
従来の顔検出においては、画像データを構成する各画素データのそれぞれに対し顔の一部の画素か否かを判定し、いわば全数探索を実施することで顔検出が行われている。
しかしながら、デジタルカメラやプリンタ等では、被写体の撮影時や画像の印刷時に顔検出がリアルタイムに行われる必要があるため、顔検出処理の高速化が必要である。
しかしながら、デジタルカメラやプリンタ等では、被写体の撮影時や画像の印刷時に顔検出がリアルタイムに行われる必要があるため、顔検出処理の高速化が必要である。
そこで、顔検出の高速化を図るために、顔検出対象の画像から人物の肌色を示す肌色領域を抽出するとともに、その肌色領域のエッジ部分を抽出し、このエッジ部分で囲まれた肌色領域を顔領域の候補(以下、「顔候補領域」と言う)として扱い、この顔候補領域に対して顔か非顔かの判定を行う技術が提案されている(例えば、特許文献1参照)。この技術によれば、顔領域の候補の抽出によって、顔か非顔かの判定処理を行う領域が絞り込まれるため、顔か非顔かの判定処理の回数を減らし,上記全数探索に対し、いわば部分探索を行うことで、顔検出処理の高速化が図られる。
特開平9−101579号公報
しかしながら、撮影環境における光源の特性によっては,撮像画像に色かぶりが発生してしまうことがあり、被写体の撮像画像における色が予め定義された色の色空間から外れることがある。また、撮影時の環境光の明るさによっては,撮像画像に白とびや黒つぶれが発生し,オブジェクト候補領域の輪郭線が不鮮明になる場合がある。
特に、ストロボ装置をストロボ発光させて撮影を行うストロボ撮影時には、上記の色かぶりや白とびが生じ易く、本来、オブジェクト候補領域として抽出すべき領域が抽出されないといったケースが起こり得る。
特に、ストロボ装置をストロボ発光させて撮影を行うストロボ撮影時には、上記の色かぶりや白とびが生じ易く、本来、オブジェクト候補領域として抽出すべき領域が抽出されないといったケースが起こり得る。
本発明は、上述した事情に鑑みてなされたものであり、ストロボ撮影により被写体を撮影する場合であっても、撮像画像からオブジェクト候補領域を抽出することのできる撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラムを提供することを目的とする。
〔形態1〕 上記目的を達成するために、形態1の撮影装置は、被写体を撮影する撮影装置であって、前記被写体を撮像し撮像画像データを生成する撮像部と、前記被写体を撮像するのに用いる光源部と、前記光源部を発光させずに前記被写体を前記撮像部に撮像させた第1撮像画像データを生成させると共に、前記光源部を発光させ、前記光源部による光が照射された前記被写体を前記撮像部に撮像させた第2撮像画像データを生成させるように前記撮影装置を制御する制御部と、前記第1撮像画像データと前記第2撮像画像データとを比較して、前記被写体の領域を抽出する領域抽出部と、前記領域抽出部によって抽出された領域に基づいて、前記第2撮像画像データから前記被写体の検出対象物であるオブジェクトを検出するオブジェクト検出部とを備えたことを特徴とする。
このような構成によれば、光源部の発光前後の撮像画像データである第1及び第2撮像画像データ同士の比較により、光源部による光が照射された被写体の領域が抽出される。
したがって、撮影時に光源部による光によって、色かぶりや白とびが生じた場合であっても、被写体の領域を確実に抽出することが可能となり、オブジェクト検出を行う領域を絞り込むことで高速なオブジェクト検出が実現可能となる。
したがって、撮影時に光源部による光によって、色かぶりや白とびが生じた場合であっても、被写体の領域を確実に抽出することが可能となり、オブジェクト検出を行う領域を絞り込むことで高速なオブジェクト検出が実現可能となる。
〔形態2〕 さらに、形態2の撮影装置は、形態1の撮影装置において、前記領域抽出部は、前記第1撮像画像データを構成する画素の明度と、前記第2撮像画像データを構成する画素の明度との差に基づいて前記被写体の領域を抽出することを特徴とする。
この構成によれば、第1及び第2撮像画像データのそれぞれの画素の明度差を求めることで、光が照射された被写体の領域を簡単に抽出することができる。
この構成によれば、第1及び第2撮像画像データのそれぞれの画素の明度差を求めることで、光が照射された被写体の領域を簡単に抽出することができる。
〔形態3〕 さらに、形態3の撮影装置は、形態1又は2の撮影装置において、前記第2撮像画像データと、前記オブジェクト検出部により検出された前記オブジェクトの情報とを対応付けて出力する出力部を備えることを特徴とする。
この構成によれば、光源部の発光後の撮像画像データである第2撮像画像データと、オブジェクトの情報とが対応付けて出力されるため、例えばプリンタ装置等の外部機器に第2撮像画像データを出力する際に、外部機器側で第2撮像画像データのオブジェクトの情報を得ることが可能となり、例えばオブジェクトとしての顔の色補正など種々の応用が可能となる。
この構成によれば、光源部の発光後の撮像画像データである第2撮像画像データと、オブジェクトの情報とが対応付けて出力されるため、例えばプリンタ装置等の外部機器に第2撮像画像データを出力する際に、外部機器側で第2撮像画像データのオブジェクトの情報を得ることが可能となり、例えばオブジェクトとしての顔の色補正など種々の応用が可能となる。
〔形態4〕 さらに、形態4の撮影装置は、形態1乃至3のいずれかの撮影装置において、前記制御部は、前記第2撮像画像データを複数生成させ、前記領域抽出部は、前記第1撮像画像データと、複数の前記第2撮像画像データとに基づいて、前記第2撮像画像データのそれぞれについて前記被写体の領域を検出することを特徴とする。
この構成によれば、光源部の発光時に時間的或いは空間的な照度ムラが生じている場合であっても、光源部の発光後に複数の第2撮像画像データを生成し、それぞれの第2撮像画像データから被写体の領域を抽出するため、照度ムラに影響されずに確実に被写体の領域を抽出することができる。
この構成によれば、光源部の発光時に時間的或いは空間的な照度ムラが生じている場合であっても、光源部の発光後に複数の第2撮像画像データを生成し、それぞれの第2撮像画像データから被写体の領域を抽出するため、照度ムラに影響されずに確実に被写体の領域を抽出することができる。
〔形態5〕 さらに、形態5の電子機器は、形態1ないし4のいずれか1の撮影装置を備えたことを特徴とする。
この構成によれば、形態1ないし形態4のいずれか1の撮影装置を様々な電子機器に応用することができる。
この構成によれば、形態1ないし形態4のいずれか1の撮影装置を様々な電子機器に応用することができる。
〔形態6〕 上記目的を達成するために、形態6の撮影制御方法は、被写体を撮像し撮像画像データを生成する撮像部と、光源部とを備えた撮影装置の撮影制御方法であって、前記光源部を発光させずに前記被写体を前記撮像部に撮像させた第1撮像画像データを生成させる第1ステップと、前記光源部を発光させ前記光源部による光が照射された前記被写体を前記撮像部に撮像させた第2撮像画像データを生成させる第2ステップと、前記第1撮像画像データ及び前記第2撮像画像データに基づいて、前記被写体の領域を抽出する第3ステップと、前記第3ステップにおいて抽出された領域と、前記第2撮像画像データとを比較して、前記第2撮像画像データから前記被写体の検出対象物であるオブジェクトを検出する第4ステップとを備えたことを特徴とする。
この撮影制御方法によれば、形態1の撮影装置と同等の効果が得られる。
この撮影制御方法によれば、形態1の撮影装置と同等の効果が得られる。
〔形態7〕 上記目的を達成するために、形態7の撮影制御プログラムは、被写体を撮像し撮像画像データを生成する撮像部と、光源部とを備えた撮影装置を、前記光源部を発光させずに前記被写体を前記撮像部に撮像させた第1撮像画像データを生成させる手段と、前記光源部を発光させ前記光源部による光が照射された前記被写体を前記撮像部に撮像させた第2撮像画像データを生成させる手段と、前記第1撮像画像データと前記第2撮像画像データとを比較して、前記被写体の領域を抽出する手段と、抽出された前記被写体の領域に基づいて、前記第2撮像画像データから前記被写体の検出対象物であるオブジェクトを検出する手段として機能させることを特徴とする。
この撮影制御プログラムによれば、撮影装置のコンピュータによってプログラムが読み取られ、読み取られたプログラムにしたがってコンピュータが処理を実行すると、形態1の撮影装置と同等の作用及び効果が得られる。
この撮影制御プログラムによれば、撮影装置のコンピュータによってプログラムが読み取られ、読み取られたプログラムにしたがってコンピュータが処理を実行すると、形態1の撮影装置と同等の作用及び効果が得られる。
〔形態8〕 上記目的を達成するために、形態8の記録媒体は、被写体を撮像し撮像画像データを生成する撮像部と、光源部とを備えた撮影装置を、前記光源部を発光させずに前記被写体を前記撮像部に撮像させた第1撮像画像データを生成させる手段と、前記光源部を発光させ前記光源部による光が照射された前記被写体を前記撮像部に撮像させた第2撮像画像データを生成させる手段と、前記第1撮像画像データと前記第2撮像画像データとを比較して、前記被写体の領域を抽出する手段と、抽出された前記被写体の領域に基づいて、前記第2撮像画像データから前記被写体の検出対象物であるオブジェクトを検出する手段として機能させる撮影制御プログラムを記録したコンピュータ読取可能な記録媒体である。
この記録媒体によれば、撮影装置のコンピュータによってプログラムが記録媒体から読み取られ、読み取られたプログラムにしたがってコンピュータが処理を実行すると、形態1の撮影装置と同等の作用及び効果が得られる。
ここで、記録媒体とは、RAM、ROM等の半導体記録媒体、FD、HD等の磁気記憶型記録媒体、CD、CDV、LD、DVD等の光学的読取方式記録媒体、MO等の磁気記録型/光学的読取方式記録媒体であって、電子的、磁気的、光学的等の読み取り方法のいかんにかかわらず、コンピュータで読み取り可能な記録媒体であれば、どのような記録媒体であってもよい。
この記録媒体によれば、撮影装置のコンピュータによってプログラムが記録媒体から読み取られ、読み取られたプログラムにしたがってコンピュータが処理を実行すると、形態1の撮影装置と同等の作用及び効果が得られる。
ここで、記録媒体とは、RAM、ROM等の半導体記録媒体、FD、HD等の磁気記憶型記録媒体、CD、CDV、LD、DVD等の光学的読取方式記録媒体、MO等の磁気記録型/光学的読取方式記録媒体であって、電子的、磁気的、光学的等の読み取り方法のいかんにかかわらず、コンピュータで読み取り可能な記録媒体であれば、どのような記録媒体であってもよい。
以下、図面を参照して本発明の実施形態について説明する。なお、以下の説明では、人物の顔をオブジェクトとして検出する場合について説明するが、本発明はこれに限定されるものではない。
<第1実施形態>
図1は、本実施形態に係る撮影装置1の機能的構成を示すブロック図である。
この撮影装置1はデジタルカメラとして構成されており、各部を中枢的に制御する制御部2を有している。
また、図1において、撮影レンズユニット3はCCDユニット4上に被写体の光学像を結像するものであり、焦点位置を調整可能に複数のレンズを有して構成されている。図示を省略するが、撮影レンズユニット3は、光学像を取り込む際の光量を調整する絞り機構を有している。
CCDユニット4は、撮影レンズユニット3によって結像された光学像を電気信号に変換するイメージセンサであり、CCDユニット4が出力する電気信号はアナログ信号処理回路5に入力される。なお、CCDユニット4と上記撮影レンズユニット3との間には、シャッタースピードに応じた時間(露光時間)だけ開放する図示しないメカニカルシャッタが設けられている。
<第1実施形態>
図1は、本実施形態に係る撮影装置1の機能的構成を示すブロック図である。
この撮影装置1はデジタルカメラとして構成されており、各部を中枢的に制御する制御部2を有している。
また、図1において、撮影レンズユニット3はCCDユニット4上に被写体の光学像を結像するものであり、焦点位置を調整可能に複数のレンズを有して構成されている。図示を省略するが、撮影レンズユニット3は、光学像を取り込む際の光量を調整する絞り機構を有している。
CCDユニット4は、撮影レンズユニット3によって結像された光学像を電気信号に変換するイメージセンサであり、CCDユニット4が出力する電気信号はアナログ信号処理回路5に入力される。なお、CCDユニット4と上記撮影レンズユニット3との間には、シャッタースピードに応じた時間(露光時間)だけ開放する図示しないメカニカルシャッタが設けられている。
アナログ信号処理回路5は、CCDユニット4から出力された電気信号に対して各種信号処理を行い、A/D変換器6に出力する。
A/D変換器6は、アナログ信号処理回路5から出力された電気信号をA/D変換し無加工の原画像データたるRAWデータを生成して、信号バス7を介して画像処理部8に出力する。
画像処理部8は、A/D変換器6から出力されたRAWデータに対し、3原色(RGB)の濃淡レベルを持つカラー画像を形成する画像形成処理、ホワイトバランス補正、ガンマ補正等を施して画像データを生成し、信号バス7を介して圧縮/伸張部9に出力する。
圧縮/伸張部9は、画像処理部8から出力された画像データを、例えばJPEG等の所定の圧縮/伸張規格に基づいて圧縮して撮像画像データ100を生成し、信号バス7及びインタフェース(I/F)10を介して外部記録メモリ11に出力する。
外部記録メモリ11は、例えば半導体メモリ、光ディスク、磁気ディスク又はハードディスク等の記録媒体であり、圧縮/伸張部9から出力された撮像画像データ100を記録する。外部記録メモリ11は、I/F10に対して着脱自在に構成され、撮像画像データ100を記録した外部記録メモリ11を撮影装置1から取り外し、例えばプリンタ装置やパーソナルコンピュータ等の他の機器に装着することで、撮像画像データ100を他の機器に簡単に読み取らせることができる。
A/D変換器6は、アナログ信号処理回路5から出力された電気信号をA/D変換し無加工の原画像データたるRAWデータを生成して、信号バス7を介して画像処理部8に出力する。
画像処理部8は、A/D変換器6から出力されたRAWデータに対し、3原色(RGB)の濃淡レベルを持つカラー画像を形成する画像形成処理、ホワイトバランス補正、ガンマ補正等を施して画像データを生成し、信号バス7を介して圧縮/伸張部9に出力する。
圧縮/伸張部9は、画像処理部8から出力された画像データを、例えばJPEG等の所定の圧縮/伸張規格に基づいて圧縮して撮像画像データ100を生成し、信号バス7及びインタフェース(I/F)10を介して外部記録メモリ11に出力する。
外部記録メモリ11は、例えば半導体メモリ、光ディスク、磁気ディスク又はハードディスク等の記録媒体であり、圧縮/伸張部9から出力された撮像画像データ100を記録する。外部記録メモリ11は、I/F10に対して着脱自在に構成され、撮像画像データ100を記録した外部記録メモリ11を撮影装置1から取り外し、例えばプリンタ装置やパーソナルコンピュータ等の他の機器に装着することで、撮像画像データ100を他の機器に簡単に読み取らせることができる。
LCD(Liquid Crystal Display)12は、操作メニュの表示や撮像画像の表示等の各種情報を表示する情報出力手段として機能し、表示制御部13は、制御部2の制御の下、LCD12に表示データを出力し各種表示を行わせる。
より詳細には、撮影装置1は、動作モードとして静止画を撮影する撮影モードおよび撮影済みの撮像画像を再生表示する再生表示モードの少なくとも2つの動作モードを備えている。撮影モードにおいては、表示制御部13は、上記撮影レンズユニット3から取り込まれている光学像に基づいて画像処理部8によって生成された画像データをプレビュー画像としてLCD12に表示し、いわゆるファインダーの機能を実現する。また、再生モードにおいては、表示制御部13は、外部記録メモリ11から読み出され、圧縮/伸張部9により伸張された撮像画像データ100を表示する。
より詳細には、撮影装置1は、動作モードとして静止画を撮影する撮影モードおよび撮影済みの撮像画像を再生表示する再生表示モードの少なくとも2つの動作モードを備えている。撮影モードにおいては、表示制御部13は、上記撮影レンズユニット3から取り込まれている光学像に基づいて画像処理部8によって生成された画像データをプレビュー画像としてLCD12に表示し、いわゆるファインダーの機能を実現する。また、再生モードにおいては、表示制御部13は、外部記録メモリ11から読み出され、圧縮/伸張部9により伸張された撮像画像データ100を表示する。
操作モジュール14は、撮影者によって操作される複数の操作子を有し、この操作子には、撮影開始を指示入力する押下式のシャッターボタンの他、動作モードや撮影条件の設定等を行う操作キー等の各種の操作子が設けられている。
ストロボ装置15は、ストロボ光源15Aを有し、制御部2の制御の下、ストロボ光源を発光させストロボ光を被写体に照射する。
ROM16は、制御部2によって実行される制御プログラム17や各種データを格納するものであり、RAM18は、制御部2のワークエリアとして機能するものである。
制御プログラム17は、磁気記録媒体、光記録媒体、半導体記録媒体等のコンピュータ読み取り可能な記録媒体に記録して配布したり、通信ネットワーク上の配信サーバからダウンロード可能にすることができる。さらに、パーソナルコンピュータと撮影装置1とを通信可能にケーブル等で接続し、パーソナルコンピュータが記録媒体から読み取った制御プログラム17を撮影装置1に出力することで、この制御プログラム17をROM16に格納し、或いは、書き換えることも可能である。
ストロボ装置15は、ストロボ光源15Aを有し、制御部2の制御の下、ストロボ光源を発光させストロボ光を被写体に照射する。
ROM16は、制御部2によって実行される制御プログラム17や各種データを格納するものであり、RAM18は、制御部2のワークエリアとして機能するものである。
制御プログラム17は、磁気記録媒体、光記録媒体、半導体記録媒体等のコンピュータ読み取り可能な記録媒体に記録して配布したり、通信ネットワーク上の配信サーバからダウンロード可能にすることができる。さらに、パーソナルコンピュータと撮影装置1とを通信可能にケーブル等で接続し、パーソナルコンピュータが記録媒体から読み取った制御プログラム17を撮影装置1に出力することで、この制御プログラム17をROM16に格納し、或いは、書き換えることも可能である。
制御部2は、プログラム実行手段としてのCPU20と、撮影レンズユニット3のレンズ系を制御してフォーカス調整を行うレンズ制御回路21と、操作モジュール14に対する撮影者の撮影指示に連動して各部を制御し撮影を実行するカメラ制御回路22と、ストロボ撮影時にカメラ制御回路22による撮影制御に連動してストロボ装置15を制御しストロボ光源15Aを発光させるストロボ制御回路23とを有している。
なお、ストロボ撮影は、撮影者が操作モジュール14を操作してストロボ撮影を指示入力した場合、或いは、図示しない照度計により計測された撮影環境光の照度が低く、ストロボ発光無しでは十分な明るさの撮像画像が得られない場合に行われる。
なお、ストロボ撮影は、撮影者が操作モジュール14を操作してストロボ撮影を指示入力した場合、或いは、図示しない照度計により計測された撮影環境光の照度が低く、ストロボ発光無しでは十分な明るさの撮像画像が得られない場合に行われる。
上記制御プログラム17には、ストロボ撮影時に実行されるストロボ撮影制御プログラム17Aが含まれている。このストロボ撮影制御プログラム17Aは、ストロボ装置15の発光制御および撮影制御の他に、撮像画像から人物などの被写体の領域を顔候補領域として抽出する抽出制御、この顔候補領域に対して顔検出を行う顔検出制御を撮影装置1に実現させるものである。
さらに詳述すると、ストロボ撮影が行われる場合、制御部2がストロボ撮影制御プログラム17Aを実行することで、図2に示すように、制御部2やROM16、RAM18等の上述した各部の協働によって、撮影装置1が、ストロボ制御部30、映像処理部31、顔候補領域抽出部32、顔検出部33、タグ付け部34、画像格納部35、及び、表示部36として機能し、また、この場合、ストロボ制御部30及び映像処理部31が被写体を撮像する撮像部37として機能する。
さらに詳述すると、ストロボ撮影が行われる場合、制御部2がストロボ撮影制御プログラム17Aを実行することで、図2に示すように、制御部2やROM16、RAM18等の上述した各部の協働によって、撮影装置1が、ストロボ制御部30、映像処理部31、顔候補領域抽出部32、顔検出部33、タグ付け部34、画像格納部35、及び、表示部36として機能し、また、この場合、ストロボ制御部30及び映像処理部31が被写体を撮像する撮像部37として機能する。
ストロボ制御部30は、操作モジュール14に対する撮影者の撮影指示入力をトリガーとした撮影動作と、ストロボ装置15のストロボ発光動作とを連動させる制御機能を有している。より詳述すると、ストロボ制御部30は、図3に示すように、撮影指示が操作モジュール14に入力された場合、撮影指示入力タイミングt0からストロボ光源15Aを発光させるストロボ発光タイミングt1までの間に、カメラ制御回路22等を制御して、ストロボ発光を行わない状態で少なくとも1回以上被写体を撮影する撮影動作を行う。また、ストロボ制御部30は、ストロボ発光を行った後、カメラ制御回路22及びストロボ制御回路23を制御して、ストロボ光が照射された状態の被写体を撮影する撮影動作を行う。
映像処理部31は、ストロボ制御部30による撮影動作に伴って撮像画像データ100を生成し格納するものであり、例えばCCDユニット4、アナログ信号処理回路5、A/D変換器6、CPU20、RAM18等により構成されている。なお、以下の説明においては、ストロボ発光前であって露光不足の状態で被写体を撮影した撮像画像データを「第1撮像画像データ100A」と称し、また、ストロボ発光によってストロボ光が照射された被写体を撮影した撮像画像データを「第2撮像画像データ100B」と称して両者を区別する。なお、ストロボ撮影時においては、第2撮像画像データ100Bがストロボ撮影による実際の撮像画像データ100として外部記録メモリ11に保存される。
顔候補領域抽出部32は、上記2種類の第1及び第2撮像画像データ100A、100Bを解析して、撮像画像における被写体の領域を顔候補領域として抽出する機能を有する。
より具体的には、顔候補領域抽出部32は、ストロボ発光前の第1撮像画像データ100Aを構成する画素の明度と、ストロボ発光後の第2撮像画像データ100Bを構成する画素の明度との各々の差分を求め、その差分値を画素の明度とした差分画像データ101を生成する。
より具体的には、顔候補領域抽出部32は、ストロボ発光前の第1撮像画像データ100Aを構成する画素の明度と、ストロボ発光後の第2撮像画像データ100Bを構成する画素の明度との各々の差分を求め、その差分値を画素の明度とした差分画像データ101を生成する。
すなわち、夜間や暗所のように撮影環境光の照度が低い場合、図4に示すように、ストロボ発光前の第1撮像画像データ100Aは、露光が不足した状況で撮影された撮像画像のデータであるため、各画素の明度が全体に一様に低くなる。これに対して、ストロボ発光後の第2撮像画像データ100Bは、ストロボ光が照射された被写体を撮影した撮像画像のデータであるため、被写体に対応する画素の明度が背景の画素の明度よりも高くなる。
そこで、顔候補領域抽出部32は、撮像画像データ100A、100Bのそれぞれの画素の明度の差分を求めて生成した差分画像データ101を、明度が一定閾値以上であるか否かに基づいて2値化すると共に、明度が一定閾値以上の画素の集合を抽出し、それらの画素の集合を顔候補領域110として設定する。
そこで、顔候補領域抽出部32は、撮像画像データ100A、100Bのそれぞれの画素の明度の差分を求めて生成した差分画像データ101を、明度が一定閾値以上であるか否かに基づいて2値化すると共に、明度が一定閾値以上の画素の集合を抽出し、それらの画素の集合を顔候補領域110として設定する。
上記一定閾値は、ストロボ光が照射された被写体を示す明度の下限値であり、経験的或いは実験的により求められている。また、撮像画像がカラー画像である場合、各画素の明度を算出する際には、例えば一般的に用いられている次式により算出可能である。
すなわち、カラー画像の各画素のR値、G値及びB値のそれぞれを用いて、
明度Y=0.299×R+0.587×G+0.114×B
として算出可能である。
すなわち、カラー画像の各画素のR値、G値及びB値のそれぞれを用いて、
明度Y=0.299×R+0.587×G+0.114×B
として算出可能である。
また上記顔候補領域110の設定においては、顔候補領域抽出部32は、図4に示すように、差分画像データ101に含まれる顔候補領域110のそれぞれに対し、例えば番号などの互いを識別するラベル(識別子)112を付与し、顔候補領域110の座標情報と対応付けて保持する。この座標情報は、顔候補領域110の輪郭線の(x、y)座標情報であっても良く、また、図5に示すように、顔候補領域110を包括する最小面積の矩形領域113の4頂点の(x、y)座標情報であっても良い。なお、座標情報の原点位置は、例えば撮像画像の4隅のいずれかの画素に設定される。
次いで、図2に示す顔検出部33は、顔候補領域抽出部32によって設定された顔候補領域110に基づいて、ストロボ発光後の第2撮像画像データ100Bを解析し人物の顔を検出する機能を有する。
顔検出の手法としては、任意の技術を採用することが可能であり、例えば、予め顔画像を多数収集し、これらの収集した顔画像を元に特定の大きさの画像を、顔画像と顔以外の画像(非顔画像)に識別する顔検出器を予め構成し、この顔検出器を用いて、顔候補領域110に顔が含まれているか否かを検出する。
より具体的には、上記顔検出器においては、例えば輝度やエッジから生成される画像特徴量を用いて顔が表現されており、この画像特徴量と、顔候補領域110の画像の特徴量とを比較することにより顔を検出する。また、顔検出器は多層ニューラルネットワーク、サポートベクトルマシンや判別分析等の統計的な手法によっても実現することができる。
顔検出の手法としては、任意の技術を採用することが可能であり、例えば、予め顔画像を多数収集し、これらの収集した顔画像を元に特定の大きさの画像を、顔画像と顔以外の画像(非顔画像)に識別する顔検出器を予め構成し、この顔検出器を用いて、顔候補領域110に顔が含まれているか否かを検出する。
より具体的には、上記顔検出器においては、例えば輝度やエッジから生成される画像特徴量を用いて顔が表現されており、この画像特徴量と、顔候補領域110の画像の特徴量とを比較することにより顔を検出する。また、顔検出器は多層ニューラルネットワーク、サポートベクトルマシンや判別分析等の統計的な手法によっても実現することができる。
また、顔検出のその他の手法として、例えば「背景と顔の方向に依存しない顔の検出と顔方向の推定」信学技報、PRMU2001−217、pp.87−94(2002−01)、荒木祐一、島田伸敬、白井良明に示されている技術を用いることも可能である。この技術の概要を説明すると、顔の部位を確率付きで求め、弛緩法を用いて顔の検出を行い、さらに、顔の部位の検出結果を用いて顔方向の検出を行うものである。該技術を本発明の顔検出に用いる場合には、顔候補領域110に対する顔の検出のみを行い、顔の方向検出は必要としない。
タグ付け部34は、上記顔検出部33によって第2撮像画像データ100Bから被写体の顔が検出された場合に、該第2撮像画像データ100Bと、検出された顔の座標情報(タグ)とを対応付けるものであり、例えば第2撮像画像データ100Bの識別子(例えば画像ファイル名)と、顔の座標情報(タグ)とを対応付けてテーブルデータ120に記録する。
画像格納部35は、ストロボ発光後に撮影された撮像画像のデータである第2撮像画像データ100Bをストロボ撮影時に撮影された画像の撮像画像データ100として格納すると共に、この第2撮像画像データ100Bに写っている顔の座標情報(タグ)が記録された上記テーブルデータ120を保持する。
表示部36は、前掲図4に示すように、第2撮像画像データ100Bと、上記顔の座標情報(タグ)とに基づいて、検出された顔の領域130を撮像画像に重ねて表示することで、撮影者などのユーザに顔検出結果を表示する。
表示部36は、前掲図4に示すように、第2撮像画像データ100Bと、上記顔の座標情報(タグ)とに基づいて、検出された顔の領域130を撮像画像に重ねて表示することで、撮影者などのユーザに顔検出結果を表示する。
上記画像格納部35は、図1に示す外部記録メモリ11により構成されており、この外部記録メモリ11を例えばプリンタ装置などの外部機器に読み込ませることで、外部機器においては、ストロボ撮影時の撮像画像データ100である第2撮像画像データ100Bと共に、上記テーブルデータ120に基づいて、第2撮像画像データ100Bにおける顔の座標情報(タグ)を取得することが可能となり、顔画像に対する肌色補正といった各種の応用が可能となる。
なお、外部機器への第2撮像画像データ100B及びテーブルデータ120の出力の態様は、上記外部記録メモリ11への出力に限らず、例えば所定の通信規格の通信により撮影装置1から外部機器に対して送信する構成としても良い。
なお、外部機器への第2撮像画像データ100B及びテーブルデータ120の出力の態様は、上記外部記録メモリ11への出力に限らず、例えば所定の通信規格の通信により撮影装置1から外部機器に対して送信する構成としても良い。
次いで、本実施形態の動作として、ストロボ撮影時の動作、すなわち、上記ストロボ撮影制御プログラム17Aに基づく制御動作について説明する。
図6はストロボ撮影処理のフローチャートである。
ストロボ撮影時においては、撮影者によって操作モジュール14から撮影指示が入力されると(ステップS1)、ストロボ制御部30は、カメラ制御回路22等を制御して、ストロボ発光を行わない状態で被写体を撮影する撮影動作を行い、この撮影動作による第1撮像画像データ100Aを映像処理部31が生成する(ステップS2)。
図6はストロボ撮影処理のフローチャートである。
ストロボ撮影時においては、撮影者によって操作モジュール14から撮影指示が入力されると(ステップS1)、ストロボ制御部30は、カメラ制御回路22等を制御して、ストロボ発光を行わない状態で被写体を撮影する撮影動作を行い、この撮影動作による第1撮像画像データ100Aを映像処理部31が生成する(ステップS2)。
次いで、ストロボ制御部30は、ストロボ装置15にストロボ発光させ(ステップS3)、ストロボ光が照射された状態の被写体を撮影する撮影動作を行い、この撮影動作による第2撮像画像データ100Bを映像処理部31が生成する(ステップS4)。
次いで、顔候補領域抽出部32は、ストロボ発光前後の第1及び第2撮像画像データ100A、100Bに基づいて、上記の差分画像データ101を生成し(ステップS5)、この差分画像データ101に基づいて顔候補領域110を抽出し(ステップS6)、各顔候補領域110にラベル付けを行う(ステップS7)。
次に、顔検出部33は、ステップS6において抽出された顔候補領域110と、第2撮像画像データ100Bとに基づいて、該第2撮像画像データ100Bから顔を検出する(ステップS8)。
次いで、顔候補領域抽出部32は、ストロボ発光前後の第1及び第2撮像画像データ100A、100Bに基づいて、上記の差分画像データ101を生成し(ステップS5)、この差分画像データ101に基づいて顔候補領域110を抽出し(ステップS6)、各顔候補領域110にラベル付けを行う(ステップS7)。
次に、顔検出部33は、ステップS6において抽出された顔候補領域110と、第2撮像画像データ100Bとに基づいて、該第2撮像画像データ100Bから顔を検出する(ステップS8)。
図7は顔検出処理のフローチャートである。
この図に示すように、顔検出部33は、ステップS7においてラベル付けした顔候補領域の1つ目(ラベル番号1)の顔候補領域110の座標情報を読み込み(ステップS20)、この座標情報に基づいて、ストロボ発光後の第2撮像画像データ100Bから顔候補領域110のみの画像データを抽出し(ステップS21)、この画像データに対して上記顔検出の手法に基づく顔検出を実行する(ステップS22)。
次いで、顔検出部33は、顔検出の結果、顔候補領域110に顔があるか否かを判断し(ステップS23)、顔がある場合(ステップS23:Yes)、検出された顔の領域を示す座標情報(タグ)をタグ付け部34が第2撮像画像データ100Bと対応付けてテーブルデータ120に記録する(ステップS24)。
この図に示すように、顔検出部33は、ステップS7においてラベル付けした顔候補領域の1つ目(ラベル番号1)の顔候補領域110の座標情報を読み込み(ステップS20)、この座標情報に基づいて、ストロボ発光後の第2撮像画像データ100Bから顔候補領域110のみの画像データを抽出し(ステップS21)、この画像データに対して上記顔検出の手法に基づく顔検出を実行する(ステップS22)。
次いで、顔検出部33は、顔検出の結果、顔候補領域110に顔があるか否かを判断し(ステップS23)、顔がある場合(ステップS23:Yes)、検出された顔の領域を示す座標情報(タグ)をタグ付け部34が第2撮像画像データ100Bと対応付けてテーブルデータ120に記録する(ステップS24)。
一方、顔候補領域110に顔がなかった場合(ステップS23:No)、或いは、ステップS24において検出された顔に対するタグ付けを行った後、顔検出部33は、第2撮像画像データ100Bにおいて、未だ顔検出を行っていない未処理の顔候補領域110があるか否かを判断し(ステップS25)、未処理の顔候補領域110がある場合には(ステップS25:Yes)、処理手順をステップS20に戻し、未処理の顔候補領域110に対して顔検出を行う。また、未処理の顔候補領域110がない場合には(ステップS25:No)、顔検出部33は、顔検出処理を終了する。
上記のようにして、第2撮像画像データ100Bから顔を検出した後、図6に示すように、表示部36は、第2撮像画像データ100Bと、ステップS24において記録された顔の座標情報(タグ)とに基づいて、検出された顔の領域130を撮像画像に重ねて表示し(ステップS9)、次のストロボ撮影に備え、処理手順をステップS1に戻す。
なお、このステップS9において、検出された顔の座標や顔の領域に誤差が生じている場合に、撮影者が操作モジュール14を操作して、その誤差を修正する構成としても良い。
なお、このステップS9において、検出された顔の座標や顔の領域に誤差が生じている場合に、撮影者が操作モジュール14を操作して、その誤差を修正する構成としても良い。
以上説明したように、本実施形態の撮影装置1によれば、ストロボ装置15のストロボ光源15Aを発光させずに被写体を撮像し第1撮像画像データ100Aを生成すると共に、前記ストロボ装置15のストロボ光源15Aを発光させ当該ストロボ光が照射された被写体を撮像し第2撮像画像データ100Bを生成し、これら第1及び第2撮像画像データ100A、100Bを比較して、被写体の領域を抽出する構成としたため、ストロボ光が照射された被写体を第2撮像画像データ100Bから簡単に抽出することが可能となる。
特に、ストロボ撮影時にストロボ光によって、色かぶりや白とびが生じた場合であっても、被写体の領域を確実に抽出することが可能となる。
したがって、顔検出を行う領域を確実に絞り込むことで高速な顔検出が実現可能となる。
特に、ストロボ撮影時にストロボ光によって、色かぶりや白とびが生じた場合であっても、被写体の領域を確実に抽出することが可能となる。
したがって、顔検出を行う領域を確実に絞り込むことで高速な顔検出が実現可能となる。
さらに、本実施形態の撮影装置1によれば、第1撮像画像データ100Aを構成する各画素の明度と、第2撮像画像データ100Bを構成する各画素の明度との差に基づいて被写体の領域を抽出する構成としたため、第1及び第2撮像画像データ100A、100Bのそれぞれの画素の明度差を求めるだけで、ストロボ光が照射された被写体の領域を簡単に抽出することができる。
また、本実施形態の撮影装置1によれば、第2撮像画像データ100Bと、顔検出部33により検出された被写体の顔の座標情報(タグ)とを対応付けてテーブルデータ120に記録し、当該第2撮像画像データ100B及びテーブルデータ120を着脱自在な外部記録メモリ11に格納する構成とした。これにより、この外部記録メモリ11を例えばプリンタ装置などの外部機器に読み込ませることで、外部機器においては、ストロボ撮影時の撮像画像データ100である第2撮像画像データ100Bと共に、上記テーブルデータ120に基づいて、第2撮像画像データ100Bにおける顔の座標情報(タグ)を取得し、顔画像に対する肌色補正といった各種の応用が可能となる。
<第2実施形態>
次いで本発明の第2実施形態について説明する。
上述した第1実施形態では、ストロボ装置15をストロボ発光させた後、ストロボ光が照射された状態の被写体を撮影する動作を1回だけ行って、第2撮像画像データ100Bを生成した。これに対して、本実施形態では、ストロボ発光の後、複数回の撮影動作により、複数の第2撮像画像データ100Bを生成する。
次いで本発明の第2実施形態について説明する。
上述した第1実施形態では、ストロボ装置15をストロボ発光させた後、ストロボ光が照射された状態の被写体を撮影する動作を1回だけ行って、第2撮像画像データ100Bを生成した。これに対して、本実施形態では、ストロボ発光の後、複数回の撮影動作により、複数の第2撮像画像データ100Bを生成する。
詳述すると、図8(A)に示すように、一般的な撮像画像150においては、複数の物体152が含まれている。これらの物体152は、撮影装置1からの距離が全て同じ訳ではなく、図8(B)に示すように、撮影装置1の近くに位置するものから遠方に位置するものまで様々である。またストロボ装置15のストロボ光は撮影装置1から遠ざかるにしたがって減衰するため、ストロボ光により十分な照度が得られる光源有効範囲160が存在する。したがって、ストロボ撮影時には、光源有効範囲160内に存在する物体152がストロボ光に照射されて照度が高まるものの、光源有効範囲160の外側にある物体152においては、ストロボ光が届かないため、黒つぶれした不鮮明な状態となる。
ところで、ストロボ発光における発光強度の時間的変化特性や、或いは、空間的な照度ムラなどにより、光源有効範囲160内に存在する全ての物体152が一様にストロボ光で照射される訳ではない。これに起因して、ストロボ発光後の撮影タイミングが異なると、それぞれの撮像画像データ100の照度分布が異なる場合があり、例えば全体的に露光不足であったり、或いは、一部の物体152の露光が不足するなどして、被写体領域の検出精度が劣化する恐れがある。
そこで本実施形態では、ストロボ制御部30は、図9に示すように、ストロボ発光タイミングt1から撮影動作を複数回繰り返して複数の第2撮像画像データ100Bを生成する。なお、これらの第2撮像画像データ100Bには、通常のストロボ撮影時のタイミングで撮影したデータも含まれており、そのデータが今回のストロボ撮影時の撮像画像データ100として画像格納部35に記録される。
図10は本実施形態におけるストロボ撮影処理のフローチャートである。なお、第1実施形態と重複した説明を避けるために、第1実施形態で説明したステップについては同じ符号を付し、その説明を省略する。
この図に示すように、ストロボ制御部30は、ステップS3においてストロボ装置15をストロボ発光させた後、ストロボ光が照射された状態の被写体を撮影する撮影動作を、規定の撮影回数に達するまで繰り返し実行し、規定の撮影回数分の第2撮像画像データ100Bを生成する(ステップS4及びS10)。
この図に示すように、ストロボ制御部30は、ステップS3においてストロボ装置15をストロボ発光させた後、ストロボ光が照射された状態の被写体を撮影する撮影動作を、規定の撮影回数に達するまで繰り返し実行し、規定の撮影回数分の第2撮像画像データ100Bを生成する(ステップS4及びS10)。
このようにして複数の第2撮像画像データ100Bが取得されると、顔候補領域抽出部32は、各第2撮像画像データ100Bに対して、第1実施形態にて説明した差分画像データ101の生成(ステップS5)、差分画像データ101に基づく顔候補領域抽出(ステップS6)及び顔候補領域110へのラベル付け(ステップS7)を実行する(ステップS11)。
この結果、それぞれの差分画像データ101において、互いに異なる顔候補領域110が抽出された場合には、それらすべての顔候補領域110にラベルが付されて記録されることとなる。
これにより、ストロボ装置15の照度ムラなどによって第2撮像画像データ100Bのそれぞれにおいて物体152の明度が異なっている場合でも、ストロボ撮影時にストロボ光が一度でも照射された物体152を抽出することが可能となり、被写体の領域をより確実に抽出することが可能となる。
これにより、ストロボ装置15の照度ムラなどによって第2撮像画像データ100Bのそれぞれにおいて物体152の明度が異なっている場合でも、ストロボ撮影時にストロボ光が一度でも照射された物体152を抽出することが可能となり、被写体の領域をより確実に抽出することが可能となる。
このように、本実施形態によれば、ストロボ装置15のストロボ光源15Aを発光させときから、撮影動作を複数回繰り返し行わせて第2撮像画像データ100Bを複数生成させ、第1撮像画像データ100Aと、第2撮像画像データ100Bの各々とに基づいて、第2撮像画像データ100Bのそれぞれから被写体の領域を検出する構成とした。
この構成により、第1実施形態で述べた効果に加え、さらに、ストロボ発光時に時間的或いは空間的な照度ムラが生じている場合であっても、各第2撮像画像データ100Bのそれぞれに基づいて、照度ムラに影響されずに確実に被写体の領域を抽出することができる。
この構成により、第1実施形態で述べた効果に加え、さらに、ストロボ発光時に時間的或いは空間的な照度ムラが生じている場合であっても、各第2撮像画像データ100Bのそれぞれに基づいて、照度ムラに影響されずに確実に被写体の領域を抽出することができる。
なお、本実施形態においては、第2撮像画像データ100Bの各々について第1撮像画像データ100Aとの差分画像データ101を生成し、それぞれの差分画像データ101から被写体の領域を抽出する構成としたが、これに限らない。
すなわち、複数の第2撮像画像データ100Bの各々の画素の明度を、同一の画素ごとに加算して、全部の第2撮像画像データ100Bの明度の情報が反映された撮像画像データを生成し、この撮像画像データと、上記第1撮像画像データ100Aとの各画素の明度の差を示す差分画像データ101を生成し、被写体の領域を抽出する構成としても良い。
この構成によれば、差分画像データ101の生成が1回で済むため、処理を高速化が図られる。
すなわち、複数の第2撮像画像データ100Bの各々の画素の明度を、同一の画素ごとに加算して、全部の第2撮像画像データ100Bの明度の情報が反映された撮像画像データを生成し、この撮像画像データと、上記第1撮像画像データ100Aとの各画素の明度の差を示す差分画像データ101を生成し、被写体の領域を抽出する構成としても良い。
この構成によれば、差分画像データ101の生成が1回で済むため、処理を高速化が図られる。
また、上述した各実施形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、上述した第1及び第2実施形態では、撮影時の環境光が足りず、第1撮像画像データ100Aとして、被写体の露光が不足した撮像画像のデータが得られる場合を例示したがこれに限らず、例えば、逆光により被写体が黒つぶれした撮像画像データを第1撮像画像データ100Aとし、ストロボ発光により被写体にストロボ光が照射された状態の撮像画像データを第2撮像画像データ100Bとした場合であっても、第1及び第2撮像画像データ100A、100Bの比較により、被写体の領域を抽出することが可能である。要するに、第1及び第2撮像画像データ100A、100Bの間で、被写体に明度差が生じる状況であれば本発明を適用することが可能である。
例えば、上述した第1及び第2実施形態では、撮影時の環境光が足りず、第1撮像画像データ100Aとして、被写体の露光が不足した撮像画像のデータが得られる場合を例示したがこれに限らず、例えば、逆光により被写体が黒つぶれした撮像画像データを第1撮像画像データ100Aとし、ストロボ発光により被写体にストロボ光が照射された状態の撮像画像データを第2撮像画像データ100Bとした場合であっても、第1及び第2撮像画像データ100A、100Bの比較により、被写体の領域を抽出することが可能である。要するに、第1及び第2撮像画像データ100A、100Bの間で、被写体に明度差が生じる状況であれば本発明を適用することが可能である。
また、上述した各実施形態においては、オブジェクトとして顔を検出する場合について説明したが、顔に限らず、手、足等の人物の他の部分、動物、植物、花瓶等の静物など特定の検出対象物であればどのようなものであっても本発明を適用することが可能である。
また、上述した各実施形態においては、光を照射せず撮影した撮像画像データを生成後、光を照射して撮影した撮像画像データを生成する構成としたが、これに限らず、光を照射して撮影した撮像画像データを生成後、光を照射せず撮影した撮像画像データを生成するようにしてもよい。このような構成にすることにより、外部記憶メモリ11に保存される、光を照射して撮影した撮像画像データを撮影者が撮影指示入力した時点のものとできるため、撮影者が撮影したい時点における撮像画像データを保存しつつ、光を照射せず撮影した撮像画像データを用いてオブジェクトを検出することが可能となる。
また、本発明に係る撮影装置1は、例えば携帯電話機やラップトップコンピュータ、PDA等の携帯型の電子機器に組み込んで実施することが可能である。
また、上述した各実施形態においては、光を照射せず撮影した撮像画像データを生成後、光を照射して撮影した撮像画像データを生成する構成としたが、これに限らず、光を照射して撮影した撮像画像データを生成後、光を照射せず撮影した撮像画像データを生成するようにしてもよい。このような構成にすることにより、外部記憶メモリ11に保存される、光を照射して撮影した撮像画像データを撮影者が撮影指示入力した時点のものとできるため、撮影者が撮影したい時点における撮像画像データを保存しつつ、光を照射せず撮影した撮像画像データを用いてオブジェクトを検出することが可能となる。
また、本発明に係る撮影装置1は、例えば携帯電話機やラップトップコンピュータ、PDA等の携帯型の電子機器に組み込んで実施することが可能である。
1…撮影装置、2…制御部、15…ストロボ装置、15A…ストロボ光源、17A…ストロボ撮影制御プログラム、20…CPU、30…ストロボ制御部、31…映像処理部、32…顔候補領域抽出部、33…顔検出部、35…画像格納部、36…表示部、37…撮像部、100…撮像画像データ、100A…第1撮像画像データ、100B…第2撮像画像データ、110…顔候補領域。
Claims (7)
- 被写体を撮影する撮影装置であって、
前記被写体を撮像し撮像画像データを生成する撮像部と、
前記被写体を撮像するのに用いる光源部と、
前記光源部を発光させずに前記被写体を前記撮像部に撮像させた第1撮像画像データを生成させると共に、前記光源部を発光させ、前記光源部による光が照射された前記被写体を前記撮像部に撮像させた第2撮像画像データを生成させるように前記撮影装置を制御する制御部と、
前記第1撮像画像データと前記第2撮像画像データとを比較して、前記被写体の領域を抽出する領域抽出部と、
前記領域抽出部によって抽出された領域に基づいて、前記第2撮像画像データから前記被写体の検出対象物であるオブジェクトを検出するオブジェクト検出部と
を備えたことを特徴とする撮影装置。 - 請求項1に記載の撮影装置において、
前記領域抽出部は、
前記第1撮像画像データを構成する画素の明度と、前記第2撮像画像データを構成する画素の明度との差に基づいて前記被写体の領域を抽出する
ことを特徴とする撮影装置。 - 請求項1又は2に記載の撮影装置において、
前記第2撮像画像データと、前記オブジェクト検出部により検出された前記オブジェクトの情報とを対応付けて出力する出力部を備える
ことを特徴とする撮影装置。 - 請求項1乃至3のいずれかに記載の撮影装置において、
前記制御部は、
前記第2撮像画像データを複数生成させ、
前記領域抽出部は、
前記第1撮像画像データと、複数の前記第2撮像画像データとに基づいて、前記第2撮像画像データのそれぞれについて前記被写体の領域を検出する
ことを特徴とする撮影装置。 - 請求項1乃至4のいずれかに記載の撮影装置を備えたことを特徴とする電子機器。
- 被写体を撮像し撮像画像データを生成する撮像部と、光源部とを備えた撮影装置の撮影制御方法であって、
前記光源部を発光させずに前記被写体を前記撮像部に撮像させた第1撮像画像データを生成させる第1ステップと、
前記光源部を発光させ前記光源部による光が照射された前記被写体を前記撮像部に撮像させた第2撮像画像データを生成させる第2ステップと、
前記第1撮像画像データ及び前記第2撮像画像データに基づいて、前記被写体の領域を抽出する第3ステップと、
前記第3ステップにおいて抽出された領域と、前記第2撮像画像データとを比較して、前記第2撮像画像データから前記被写体の検出対象物であるオブジェクトを検出する第4ステップと
を備えたことを特徴とする撮影制御方法。 - 被写体を撮像し撮像画像データを生成する撮像部と、光源部とを備えた撮影装置を、
前記光源部を発光させずに前記被写体を前記撮像部に撮像させた第1撮像画像データを生成させる手段と、
前記光源部を発光させ前記光源部による光が照射された前記被写体を前記撮像部に撮像させた第2撮像画像データを生成させる手段と、
前記第1撮像画像データと前記第2撮像画像データとを比較して、前記被写体の領域を抽出する手段と、
抽出された前記被写体の領域に基づいて、前記第2撮像画像データから前記被写体の検出対象物であるオブジェクトを検出する手段
として機能させることを特徴とする撮影制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007058412A JP2008227569A (ja) | 2007-03-08 | 2007-03-08 | 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007058412A JP2008227569A (ja) | 2007-03-08 | 2007-03-08 | 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008227569A true JP2008227569A (ja) | 2008-09-25 |
Family
ID=39845704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007058412A Pending JP2008227569A (ja) | 2007-03-08 | 2007-03-08 | 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008227569A (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011124728A (ja) * | 2009-12-09 | 2011-06-23 | Samsung Electronics Co Ltd | 撮像装置及び撮像方法 |
JP2015510169A (ja) * | 2012-01-17 | 2015-04-02 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | 物体検出のためのコントラストの改善及び光学画像化による特徴評価 |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US9436998B2 (en) | 2012-01-17 | 2016-09-06 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9495613B2 (en) | 2012-01-17 | 2016-11-15 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging using formed difference images |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US10585193B2 (en) | 2013-03-15 | 2020-03-10 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11099653B2 (en) | 2013-04-26 | 2021-08-24 | Ultrahaptics IP Two Limited | Machine responsiveness to dynamic user movements and gestures |
US11353962B2 (en) | 2013-01-15 | 2022-06-07 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US11720180B2 (en) | 2012-01-17 | 2023-08-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US11740705B2 (en) | 2013-01-15 | 2023-08-29 | Ultrahaptics IP Two Limited | Method and system for controlling a machine according to a characteristic of a control object |
US11778159B2 (en) | 2014-08-08 | 2023-10-03 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
US11775033B2 (en) | 2013-10-03 | 2023-10-03 | Ultrahaptics IP Two Limited | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11994377B2 (en) | 2012-01-17 | 2024-05-28 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
-
2007
- 2007-03-08 JP JP2007058412A patent/JP2008227569A/ja active Pending
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011124728A (ja) * | 2009-12-09 | 2011-06-23 | Samsung Electronics Co Ltd | 撮像装置及び撮像方法 |
US10410411B2 (en) | 2012-01-17 | 2019-09-10 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9436998B2 (en) | 2012-01-17 | 2016-09-06 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US10565784B2 (en) | 2012-01-17 | 2020-02-18 | Ultrahaptics IP Two Limited | Systems and methods for authenticating a user according to a hand of the user moving in a three-dimensional (3D) space |
JP2016186793A (ja) * | 2012-01-17 | 2016-10-27 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | 物体検出のためのコントラストの改善及び光学画像化による特徴評価 |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US11994377B2 (en) | 2012-01-17 | 2024-05-28 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US11782516B2 (en) | 2012-01-17 | 2023-10-10 | Ultrahaptics IP Two Limited | Differentiating a detected object from a background using a gaussian brightness falloff pattern |
US9626591B2 (en) | 2012-01-17 | 2017-04-18 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9652668B2 (en) | 2012-01-17 | 2017-05-16 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9672441B2 (en) | 2012-01-17 | 2017-06-06 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US10699155B2 (en) | 2012-01-17 | 2020-06-30 | Ultrahaptics IP Two Limited | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9697643B2 (en) | 2012-01-17 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US9741136B2 (en) | 2012-01-17 | 2017-08-22 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US9767345B2 (en) | 2012-01-17 | 2017-09-19 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US9778752B2 (en) | 2012-01-17 | 2017-10-03 | Leap Motion, Inc. | Systems and methods for machine control |
US9934580B2 (en) | 2012-01-17 | 2018-04-03 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US11720180B2 (en) | 2012-01-17 | 2023-08-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US10366308B2 (en) | 2012-01-17 | 2019-07-30 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
JP2015510169A (ja) * | 2012-01-17 | 2015-04-02 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | 物体検出のためのコントラストの改善及び光学画像化による特徴評価 |
US11308711B2 (en) | 2012-01-17 | 2022-04-19 | Ultrahaptics IP Two Limited | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9495613B2 (en) | 2012-01-17 | 2016-11-15 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging using formed difference images |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9626015B2 (en) | 2013-01-08 | 2017-04-18 | Leap Motion, Inc. | Power consumption in motion-capture systems with audio and optical signals |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US10097754B2 (en) | 2013-01-08 | 2018-10-09 | Leap Motion, Inc. | Power consumption in motion-capture systems with audio and optical signals |
US11740705B2 (en) | 2013-01-15 | 2023-08-29 | Ultrahaptics IP Two Limited | Method and system for controlling a machine according to a characteristic of a control object |
US11874970B2 (en) | 2013-01-15 | 2024-01-16 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US11353962B2 (en) | 2013-01-15 | 2022-06-07 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US10585193B2 (en) | 2013-03-15 | 2020-03-10 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US11693115B2 (en) | 2013-03-15 | 2023-07-04 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US11099653B2 (en) | 2013-04-26 | 2021-08-24 | Ultrahaptics IP Two Limited | Machine responsiveness to dynamic user movements and gestures |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11776208B2 (en) | 2013-08-29 | 2023-10-03 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11282273B2 (en) | 2013-08-29 | 2022-03-22 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11461966B1 (en) | 2013-08-29 | 2022-10-04 | Ultrahaptics IP Two Limited | Determining spans and span lengths of a control object in a free space gesture control environment |
US11775033B2 (en) | 2013-10-03 | 2023-10-03 | Ultrahaptics IP Two Limited | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US11778159B2 (en) | 2014-08-08 | 2023-10-03 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008227569A (ja) | 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム | |
JP6445844B2 (ja) | 撮像装置および撮像装置で実行される方法 | |
JP5089405B2 (ja) | 画像処理装置及び画像処理方法並びに撮像装置 | |
JP4823970B2 (ja) | 画像編集装置 | |
US8294785B2 (en) | Method for adjusting photosensitiveness of digital camera | |
JP2009212853A (ja) | ホワイトバランス制御装置およびその制御方法並びに撮像装置 | |
KR20120016476A (ko) | 영상 처리 방법 및 영상 처리 장치 | |
JP2010041435A (ja) | 撮像装置及びその制御方法 | |
JP2010074815A (ja) | 画像処理装置、画像処理方法、および、プログラム | |
JP5225137B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
JP2008035125A (ja) | 撮像装置、画像処理方法およびプログラム | |
JP2020102059A (ja) | 画像処理装置 | |
JP2010154306A (ja) | 撮像制御装置、撮像制御プログラム及び撮像制御方法 | |
JP2014179920A (ja) | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 | |
JP5246590B2 (ja) | 撮像装置、画像生成方法及びプログラム | |
JP2009200743A (ja) | 画像処理装置および画像処理方法および画像処理プログラムおよび撮像装置 | |
JP2016092513A (ja) | 画像取得装置、ブレ軽減方法及びプログラム | |
US20170251136A1 (en) | Image processing apparatus, image capturing apparatus, method of controlling the same, and storage medium | |
US11140333B2 (en) | Image pickup apparatus capable of controlling flash exposure and control method therefor | |
JP5199908B2 (ja) | 撮像装置およびその制御方法 | |
JP5063503B2 (ja) | 撮像装置及びその制御方法 | |
JP2005004287A (ja) | 顔画像検出装置およびその制御方法 | |
JP2006081087A (ja) | 撮像装置および撮像方法 | |
JP5750934B2 (ja) | 画像処理装置および画像処理プログラム | |
JP4661957B2 (ja) | 画像マッチング装置、およびカメラ |